인공지능 시대에 더욱 커지는 ‘사람의 역할’, 비영리재단 퓨처 오브 라이프

우리가 문명에 대해 동경하는 모든 것은 지능의 산물이므로 인공지능으로 인해 인간의 지능을 넓히는 것은 우리 문명이 번성하도록 돕는 무한한 잠재력이 있습니다. 하지만 문명의 발전에서 보았듯이 그 기술이 유익한 상태를 유지해야만 하는 것입니다. 그러므로 AI의 기술이란 것도 결국 인간이 어떤 마음으로 하느냐에 의해 그 결말이 갈린다고 할 수 있습니다.

 

그래서 MIT 연구진의 최근 연구에 따르면 사용자의 적대감이 알고리즘을 파괴적으로 강화할 수 있다고 설명합니다. 따라서 SF로 인해 사람들이 AI가 최악의 상황을 만들 것이라고 예상하게 훈련한다면, 실제로 그런 일이 일어날 수도 있다고 합니다.

 

반대의 목적으로, AI 모델을 정교하게 다루면 AI 모델도 똑같이 반응하는 것으로 연구되고 이있습니다. 런던 대학의 문화사학자 캐서린 클라크는 임페리얼 칼리지 런던 및 구글 딥마인드 연구진과 텍스트 생성 AI를 상대로 텍스트 생성과 관련한 연구를 진행했을 때 조잡한 프롬프트가 제공된 AI가 구성한 이야기는 평범했지만, 더 세련되고 창의적인 프롬프트는 문학성이 뛰어난 출력으로 이어진 것을 보고했습니다.

 

이 때문에 지능적인 AI에 앞서 인간이 어떠한 마음으로 하느냐가 결말을 만들어 낸다고 할 수 있습니다. 여기서 AI의 발전에 윤리와 균형과 선한발전을 추구하는 곳이 있습니다. 퓨처 오브 라이프 재단(https://futureoflife.org/)입니다.

 

이 단체는 2023년도에 대규모 AI 시스템개발 중단을 촉구하는 공개서한을 발표하여 전 세계 AI 연구소에 “GPT-4보다 강력한 AI 시스템에 대한 훈련(training)을 최소 6개월 동안 멈추라고 요구하기도 했으며 2017년에 이미 아실로마 AI 준칙(미국 캘리포니아 주 아실로마에서 열린 유익한 AI 2017′ 콘퍼런스)을 발표하여 AI에 미치는 인간의 중요성에 대해 강조한 바 있습니다. 그 내용이 앞으로 AI 발전에 너무도 중요하다고 생각이 되어 요약 정리해 보았습니다.

 

아실로마 AI 준칙 요약

  1. 연구 분야 이슈

 

연구 목적

 

AI 개발의 궁극적 목적을 사람에게 혜택을 주는 지능의 창조로 설정함으로써, 기술이 인간의 복지를 최우선으로 고려하도록 강조합니다. 이는 기술 발전이 단순히 기능적인 측면에 그치지 않고, 인간의 삶의 질을 향상시키는 방향으로 진행되어야 함을 의미합니다.

 

연구 자금 활용

 

투자는 AI의 유익한 활용을 전제로 하며, 이는 기술 개발이 단지 경제적 이익에만 초점을 맞추지 않고 사회적, 윤리적 측면을 포괄해야 함을 시사합니다. 여러 학문 분야와의 연동을 통해, AI 연구는 다양한 인간의 요구와 문제를 이해하고 해결하는 데 기여할 수 있습니다.

 

과학과 정책의 연결

 

AI 연구와 정책이 밀접하게 연결되어야 함은, 기술 발전이 사회적, 법적 틀 내에서 이루어져야 함을 강조합니다. 이는 기술이 사회적 규범과 법률에 부합하게 발전하도록 유도하여, 예기치 못한 부작용을 방지하는 데 중요합니다.

 

연구문화

 

협동, 믿음, 투명성은 건강한 연구 환경을 조성하며, 이는 과학적 발견뿐만 아니라 기술의 사회적 수용을 증진시키는 데 필수적입니다. 개방적이고 투명한 연구 환경은 신뢰를 구축하고, 공공의 지지를 얻는 데 도움을 줍니다.

 

경쟁 무효

 

AI 개발에 있어서 과열된 경쟁을 피하고 협력을 강조함으로써, 안정성과 장기적인 지속 가능성을 우선시하는 환경을 조성합니다. 이는 팀 간의 정보 공유와 협력을 통해 더욱 견고하고 안전한 AI 시스템을 개발하는 데 기여할 수 있습니다.

 

 

  1. 인공지능 윤리와 가치

 

안전성

 

AI 시스템의 안전성은 사용자 보호와 직결되며, 기술이 사람들의 생활에 적용될 때 필수적인 안전 조치와 함께, 그 운영 범위와 조건이 명확해야 함을 의미합니다. 이는 사람들이 기술을 신뢰하고 안심하며 사용할 수 있도록 하는 기초입니다.

 

실패 투명성

 

AI 시스템의 오류가 발생했을 때, 그 원인을 명확히 규명하고 공개하는 것은 문제 해결과 기술 개선에 중요합니다. 이를 통해 동일한 실수의 반복을 방지하고, 기술의 신뢰성을 높일 수 있습니다.

 

책임

 

AI 시스템의 설계자와 개발자는 그들이 만든 시스템의 도덕적 사용과 오용에 대해 책임을 져야 합니다. 이는 기술 개발자가 그들의 작업이 사회에 미치는 영향을 심사숙고해야 함을 강조합니다.

 

가치 배열

 

AI 시스템은 인간의 가치와 일치하게 운영되어야 하며, 이는 기술이 인간의 존엄성과 권리를 존중하며 발전해야 함을 의미합니다. 이를 통해 기술이 사회적으로 수용될 수 있습니다.

 

개인 사생활

 

사용자는 자신의 데이터를 관리할 권리가 있으며, 이는 개인의 사생활 보호와 정보의 자기 결정권을 강화합니다. AI 시스템은 이러한 원칙을 존중하며 개인 데이터를 처리해야 합니다.

 

 

 

  1. 장기 이슈

 

 

역량 경고

 

AI의 미래 역량에 대한 추측은 주의 깊게 접근해야 하며, 과도한 기대나 두려움 없이 현실적인 평가가 이루어져야 합니다. 이는 과학적 근거에 기반한 합리적인 기대 수준을 설정하는 데 도움을 줍니다.

 

중요성

 

고도화된 AI의 관리는 그 파급력을 고려할 때 매우 중요하며, 적절한 규제와 감독 없이는 대규모 사회적, 경제적 문제를 야기할 수 있습니다. 지속 가능하고 안전한 AI 사용을 위해서는 철저한 관리가 요구됩니다.

 

위험성

 

AI 관련 위험을 인식하고 이에 대비하는 것은 중대한 사회적 책임입니다. 실존적 위험을 포함하여, AI의 부작용으로 인한 잠재적인 파괴를 최소화하기 위해 철저한 계획과 준비가 필요합니다.

 

자가발전 순환

 

AI 시스템의 자가 발전 가능성은 그 기능과 영향력을 급격히 확대할 수 있으므로, 엄격한 안전 관리와 제어 조치가 수반되어야 합니다. 이는 무분별한 기술 발전으로 인한 위험을 줄이는 데 중요합니다.

 

공통 이익

 

슈퍼 인텔리전스 개발은 모든 인류의 이익을 위해 이루어져야 하며, 특정 국가나 조직의 이익에 치우치지 않도록 유의해야 합니다. 이는 기술의 긍정적인 영향을 극대화하고, 부정적인 영향을 최소화하는 데 중요한 원칙입니다.

 

결론

 

아실로마 AI 준칙은 AI 기술의 발전을 안내하는 중요한 윤리적 지침으로, 기술이 인류에게 긍정적인 영향을 미칠 수 있도록 설계되었습니다. 이러한 준칙들을 통해 AI 연구자와 개발자는 사회적, 윤리적 책임을 다하며, 기술의 잠재적 위험을 관리할 수 있습니다. AI 기술이 전 세계적으로 빠르게 성장함에 따라, 이러한 준칙의 역할은 더욱 중요해질 것입니다.

<이하 광고>

© 2023 나의 웹 페이지

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다