• ITㆍ정보ㆍ방송통신
  • 인공지능ㆍ자율주행
  • 2. 인공지능 윤리의 논의 현황
  • 2.3. 교황청, 인공지능 윤리에 대한 호소(2020.2.28)
전체 목록 보기

네플라 위키는 변호사, 판사, 검사, 법학교수, 법학박사인증된 법률 전문가가 작성합니다.

2.3.

교황청, 인공지능 윤리에 대한 호소(2020.2.28)

  • 새 탭 열기
  • 작성 이력 보기

생성자
최주선 변호사
기여자
  • 최주선 변호사
0

교황청의 인공지능 윤리에 대한 호소(Rome Call for AI Ethics)는 2020년 2월 28일 교황청 생명 아카데미, 마이크로소프트, IBM, 이탈리아 혁신부(이탈리아 정부 산하)가 처음으로 서명한 문서이다.

"이 문서는 인공지능에 대한 윤리적 접근 방식을 지원하고 조직, 정부, 기관 및 민간 부문 간의 책임감을 증진하기 위해 개발되었으며, 디지털 혁신과 기술 진보가 인간의 천재성과 창의성에 도움이 되고 점진적인 대체가 아닌 미래를 만드는 것을 목표로 한다"[1]

인공지능 윤리에 대한 호소는 3개의 영향 영역(윤리, 교육, 권리)과 6개의 원칙으로 구성되어 있다.

https://www.romecall.org/the-call/ 에서 원문을 제공하고 있다.

내용은 아래와 같다.

Ethics
윤리

All human beings are born free and equal in dignity and rights. They are endowed with reason and conscience and should act towards one another in a spirit of fellowship (cf. Art. 1, Univ. Dec. Human Rights). This fundamental condition of freedom and dignity must also be protected and guaranteed when producing and using AI systems. This must be done by safeguarding the rights and the freedom of individuals so that they are not discriminated against by algorithms due to their “race, color, sex, language, religion, political or other opinion, national or social origin, property, birth or other status” (Art. 2, Univ. Dec. Human Rights).

모든 인간은 태어날 때부터 자유롭고 존엄성과 권리에 있어 평등합니다. 인간은 이성과 양심을 부여받았으며, 동료의 정신으로 서로를 대해야 합니다(참조, Univ. Dec. Human Rights, Art. 1). 자유와 존엄성의 이러한 근본적인 조건은 AI 시스템을 제작하고 사용할 때도 보호되고 보장되어야 합니다. 이는 개인의 권리와 자유를 보호하여 알고리즘이 "인종, 피부색, 성별, 언어, 종교, 정치적 또는 기타 의견, 국가적 또는 사회적 기원, 재산, 출생 또는 기타 지위"로 인해 차별하지 않도록 해야 합니다(참조, Univ. Dec. Human Rights, Art. 2).

AI systems must be conceived, designed and implemented to serve and protect human beings and the environment in which they live. This fundamental outlook must translate into a commitment to create living conditions (both social and personal) that allow both groups and individual members to strive to fully express themselves where possible.

AI 시스템은 인간과 그들이 사는 환경을 위해 봉사하고 보호하도록 구상, 설계 및 구현되어야 합니다. 이러한 근본적인 관점은 가능한 한 그룹과 개인 구성원 모두가 자신을 온전히 표현하도록 노력할 수 있는 생활 조건(사회적 및 개인적)을 만드는 데 대한 헌신으로 이어져야 합니다.

In order for technological advancement to align with true progress for the human race and respect for the planet, it must meet three requirements. It must include every human being, discriminating against no one; it must have the good of humankind and the good of every human being at its heart; finally, it must be mindful of the complex reality of our ecosystem and be characterized by the way in which it cares for and protects the planet (our “common and shared home”) with a highly sustainable approach, which also includes the use of artificial intelligence in ensuring sustainable food systems in the future. Furthermore, each person must be aware when he or she is interacting with a machine.

기술 발전이 인류의 진정한 진보와 지구에 대한 존중과 일치하려면 세 가지 요구 사항을 충족해야 합니다. 모든 인간을 포함해야 하며, 누구도 차별해서는 안 됩니다. 인류의 이익과 모든 인간의 이익을 핵심으로 삼아야 합니다. 마지막으로 생태계의 복잡한 현실을 염두에 두고 지구(우리의 "공동의 집")를 매우 지속 가능한 방식으로 돌보고 보호하는 방식으로 특징지어져야 하며, 여기에는 미래에 지속 가능한 식량 시스템을 보장하기 위해 인공 지능을 사용하는 것도 포함됩니다. 더욱이 각 사람은 기계와 상호 작용할 때 이를 인식해야 합니다.

AI-based technology must never be used to exploit people in any way, especially those who are most vulnerable. Instead, it must be used to help people develop their abilities (empowerment/enablement) and to support the planet.
AI 기반 기술은 어떤 식으로든 사람을 착취하는 데 사용되어서는 안 되며, 특히 가장 취약한 사람들을 착취하는 데 사용되어서는 안 됩니다. 대신 사람들이 능력을 개발하도록 돕고(역량 강화/활성화) 지구를 지원하는 데 사용되어야 합니다.

 

Education
교육

Transforming the world through the innovation of AI means undertaking to build a future for and with younger generations. This undertaking must be reflected in a commitment to education, developing specific curricula that span different disciplines in the humanities, science and technology, and taking responsibility for educating younger generations. This commitment means working to improve the quality of education that young people receive; this must be delivered via methods that are accessible to all, that do not discriminate and that can offer equality of opportunity and treatment. Universal access to education must be achieved through principles of solidarity and fairness.

AI 혁신을 통해 세상을 변화시킨다는 것은 젊은 세대를 위한 미래를 건설한다는 의미입니다. 이 사업은 교육에 대한 헌신, 인문학, 과학 및 기술의 다양한 학문을 아우르는 특정 커리큘럼 개발, 젊은 세대 교육에 대한 책임에 반영되어야 합니다. 이 헌신은 젊은이들이 받는 교육의 질을 개선하기 위해 노력하는 것을 의미합니다. 이는 모든 사람이 접근 가능하고 차별하지 않으며 기회와 대우의 평등을 제공할 수 있는 방법을 통해 제공되어야 합니다. 연대와 공정성의 원칙을 통해 교육에 대한 보편적 접근을 달성해야 합니다.

Access to lifelong learning must be guaranteed also for the elderly, who must be offered the opportunity to access off-line services during the digital and technological transition. Moreover, these technologies can prove enormously useful in helping people with disabilities to learn and become more independent: inclusive education therefore also means using AI to support and integrate each and every person, offering help and opportunities for social participation (e.g. remote working for those with limited mobility, technological support for those with cognitive disabilities, etc.).

평생 학습에 대한 접근은 노인에게도 보장되어야 하며, 디지털 및 기술 전환 중에 오프라인 서비스에 접근할 수 있는 기회가 제공되어야 합니다. 게다가 이러한 기술은 장애인이 학습하고 더욱 독립적으로 성장하는 데 큰 도움이 될 수 있습니다. 따라서 포용적 교육은 AI를 사용하여 모든 사람을 지원하고 통합하고 사회적 참여를 위한 도움과 기회를 제공하는 것을 의미합니다(예: 이동성이 제한된 사람을 위한 원격 근무, 인지 장애가 있는 사람을 위한 기술 지원 등).

The impact of the transformations brought about by AI in society, work and education has made it essential to overhaul school curricula in order to make the educational motto “no one left behind” a reality. In the education sector, reforms are needed in order to establish high and objective standards that can improve individual results. These standards should not be limited to the development of digital skills but should focus instead on making sure that each person can fully express their capabilities and on working for the good of the community, even when there is no personal benefit to be gained from this.

AI가 사회, 일, 교육에 가져온 변화의 영향으로 인해 "아무도 뒤처지지 않는다"는 교육 모토를 실현하기 위해 학교 커리큘럼을 전면 개편하는 것이 필수적이었습니다. 교육 부문에서는 개인의 성과를 개선할 수 있는 높고 객관적인 기준을 수립하기 위한 개혁이 필요합니다. 이러한 기준은 디지털 기술 개발에 국한되지 않고 각 개인이 자신의 역량을 충분히 표현할 수 있도록 하고, 이를 통해 개인적인 이익이 없더라도 커뮤니티의 이익을 위해 일하는 데 중점을 두어야 합니다.

As we design and plan for the society of tomorrow, the use of AI must follow forms of action that are socially oriented, creative, connective, productive, responsible, and capable of having a positive impact on the personal and social life of younger generations. The social and ethical impact of AI must be also at the core of educational activities of AI.

우리가 미래 사회를 설계하고 계획할 때 AI의 사용은 사회적으로 지향적이고, 창의적이며, 연결적이고, 생산적이며, 책임감 있고, 젊은 세대의 개인적 및 사회적 삶에 긍정적인 영향을 미칠 수 있는 행동 형태를 따라야 합니다. AI의 사회적 및 윤리적 영향은 또한 AI의 교육 활동의 핵심이어야 합니다.

The main aim of this education must be to raise awareness of the opportunities and also the possible critical issues posed by AI from the perspective of social inclusion and individual respect.

이 교육의 주요 목표는 사회적 포용과 개인 존중의 관점에서 AI가 제기할 수 있는 기회와 가능한 중요한 문제에 대한 인식을 높이는 것입니다.


Rights
권리

The development of AI in the service of humankind and the planet must be reflected in regulations and principles that protect people – particularly the weak and the underprivileged – and natural environments. The ethical commitment of all the stakeholders involved is a crucial starting point; to make this future a reality, values, principles, and in some cases, legal regulations, are absolutely indispensable in order to support, structure and guide this process.

인류와 지구를 위해 AI를 개발하는 것은 사람들, 특히 약자와 불우 계층과 자연 환경을 보호하는 규정과 원칙에 반영되어야 합니다. 관련된 모든 이해 관계자의 윤리적 헌신은 중요한 시작점입니다. 이 미래를 실현하기 위해서는 가치, 원칙, 그리고 어떤 경우에는 법적 규정이 이 과정을 지원, 구조화, 안내하는 데 절대적으로 필수적입니다.

To develop and implement AI systems that benefit humanity and the planet while acting as tools to build and maintain international peace, the development of AI must go hand in hand with robust digital security measures.

인류와 지구에 이로운 AI 시스템을 개발하고 구현하면서 국제 평화를 구축하고 유지하기 위한 도구 역할을 하려면 AI 개발과 함께 강력한 디지털 보안 조치가 필요합니다.

In order for AI to act as a tool for the good of humanity and the planet, we must put the topic of protecting human rights in the digital era at the heart of public debate. The time has come to question whether new forms of automation and algorithmic activity necessitate the development of stronger responsibilities. In particular, it will be essential to consider some form of “duty of explanation”: we must think about making not only the decision-making criteria of AI-based algorithmic agents understandable, but also their purpose and objectives. These devices must be able to offer individuals information on the logic behind the algorithms used to make decisions. This will increase transparency, traceability and responsibility, making the computeraided decision-making process more valid.

AI가 인류와 지구의 이익을 위한 도구 역할을 하려면 디지털 시대의 인권 보호라는 주제를 공개 토론의 핵심에 두어야 합니다. 새로운 형태의 자동화와 알고리즘 활동이 더 강력한 책임의 개발을 필요로 하는지 의문을 제기할 때가 되었습니다. 특히, 어떤 형태의 "설명 의무"를 고려하는 것이 필수적입니다. AI 기반 알고리즘 에이전트의 의사 결정 기준뿐만 아니라 그 목적과 목표도 이해할 수 있도록 만드는 것에 대해 생각해야 합니다. 이러한 장치는 개인에게 의사 결정에 사용된 알고리즘의 논리에 대한 정보를 제공할 수 있어야 합니다. 이를 통해 투명성, 추적성 및 책임이 증가하여 컴퓨터 지원 의사 결정 프로세스가 더욱 타당해집니다.

New forms of regulation must be encouraged to promote transparency and compliance with ethical principles, especially for advanced technologies that have a higher risk of impacting human rights, such as facial recognition.

특히 얼굴 인식과 같이 인권에 영향을 미칠 위험이 높은 첨단 기술의 경우 투명성과 윤리 원칙 준수를 촉진하기 위해 새로운 형태의 규제를 장려해야 합니다.

 

To achieve these objectives, we must set out from the very beginning of each algorithm’s development with an “algor-ethical” vision, i.e. an approach of ethics by design. Designing and planning AI systems that we can trust involves seeking a consensus among political decision-makers, UN system agencies and other intergovernmental organizations, researchers, the world of academia and representatives of non-governmental organizations regarding the ethical principles that should be built into these technologies. For this reason, the sponsors of the call express their desire to work together, in this context and at a national and international level, to promote “algor-ethics”, namely the ethical use of AI as defined by the following principles:

이러한 목표를 달성하기 위해 우리는 개개 알고리즘 개발의 가장 처음부터 "알고리즘 윤리" 비전, 즉 설계에 따른 윤리적 접근 방식을 설정해야 합니다. 신뢰할 수 있는 AI 시스템을 설계하고 계획하려면 정치적 의사 결정권자, UN 시스템 기관 및 기타 정부 간 조직, 연구자, 학계 및 비정부 조직 대표 간의 합의를 모색하여 이러한 기술에 내장되어야 하는 윤리적 원칙에 대해 논의해야 합니다. 이러한 이유로 이 호소의 발기인들은 이러한 맥락에서 국가 및 국제 수준에서 "알고리즘 윤리", 즉 다음 원칙에 정의된 AI의 윤리적 사용을 촉진하기 위해 함께 노력하겠다는 의지를 표명합니다.

  • Transparency: in principle, AI systems must be explainable;
  • 투명성: 원칙적으로 AI 시스템은 설명 가능해야 합니다;
  • Inclusion: the needs of all human beings must be taken into consideration so that everyone can benefit and all individuals can be offered the best possible conditions to express themselves and develop;
  • 포용성: 모든 인간의 요구를 고려하여 모든 사람이 혜택을 받고 모든 개인에게 자신을 표현하고 개발할 수 있는 최상의 조건을 제공해야 합니다;
  • Responsibility: those who design and deploy the use of AI must proceed with responsibility and transparency;
  • 책임성: AI 사용을 설계하고 배포하는 사람은 책임감과 투명성을 가지고 진행해야 합니다;
  • Impartiality: do not create or act according to bias, thus safeguarding fairness and human dignity;
  • 공정성: 편견에 따라 만들거나 행동하지 않음으로써 공정성과 인간 존엄성을 보호합니다;
  • Reliability: AI systems must be able to work reliably;
  • 신뢰성: AI 시스템은 안정적으로 작동할 수 있어야 합니다;
  • Security and privacy: AI systems must work securely and respect the privacy of users.
  • 보안 및 개인정보보호: AI 시스템은 안전하게 작동하고 사용자의 개인정보보호를 존중해야 합니다.

These principles are fundamental elements of good innovation

이러한 원칙은 선한 혁신의 기본 요소입니다.

각주:

1. https://www.romecall.org/ 소개문구 인용

0
공유하기
최근 작성일시: 2024년 9월 29일
  • 검색
  • 맨위로
  • 페이지업
  • 페이지다운
  • 맨아래로
카카오톡 채널 채팅하기 버튼