상단영역

본문영역

AI발전은 “사회에 대한 영향을 제공했지만, 위험도 따른다”

스탠퍼드大, ‘인공지능 100년 연구(AI100)' 발표
인공 지능의 진행 상황과 위험을 평가하는 연구 보고서
AI의 약속과 위험이 현실화되고 있다

  • Editor. 김문선 기자
  • 입력 2021.09.20 21:29
  • 수정 2022.04.05 09:57
  • 댓글 0
이 기사를 공유합니다

AI100 프로젝트는 한 세기 동안 인공 지능의 추세를 추적하도록 설계되었습니다. (이미지 : AI100 / 스탠포드 인간중심 인공지능연구소)


인간과 기계 간의 진화하는 관계를 연구하고 로봇, 인공 지능 및 자동화가 우리의 일과 삶에 영향을 미치는 방식을 조사하여 AI기술의 일상적인 적용과 해당 기술이 남용되는 방식에 주의를 기울여야 하는 전환점에 도달했다는 보고서가 나왔다.

스탠포드대학교(Stanford University)가 주관하는 '인공지능 100년 연구(One Hundred Year Study on Artificial Intelligence 'AI100' 2021 Study Panel Report)' 연구 보고서를 지난 15일 발표했다.

이 보고서는 AI가 개발하고 일과 삶을 변화시키는 주요 영역을 조사 발표했으며, 기술적인 내용으로는 설명 가능한 AI, 의사 결정, 비서로서의 인공지능, 언어 처리, 컴퓨터 비전, 이미지 처리, 로봇 공학, 모빌리티, AI추천 시스템 등 다양분야가 조사됐다.

이 연구의 가장 중요한 목적은 AI 및 해당 분야가 발전함에 따라 미치는 영향과 AI 연구, 개발 및 시스템 설계의 방향에 대한 전문가 지침과 이러한 시스템이 개인과 사회에 광범위하게 도움이 되도록 하는 프로그램을 제공하는 종합 분석 및 평가를 제시했다.

9월 16일 목요일에 발표된 이 보고서는 AI 개발의 중요한 영역을 조사하는 14가지 질문에 답하도록 구성되어 있다. 질문은 유명한 AI 리더 그룹으로 구성된 AI100 상임 위원회에서 진행되었다.

위원회는 17명의 연구원과 전문가로 구성된 패널을 구성하여 응답했고 질문에는 "AI에서 가장 중요한 발전은 무엇입니까?", "가장 영감을 주는 열린 그랜드 챌린지는 무엇입니까?" 다른 질문은 AI의 주요 위험과 위험, 사회에 대한 영향, 대중의 인식 및 해당 분야의 미래를 다루었다.

17명의 전문가로 구성된 상임 위원회은 의장으로 브라운대학(Brown University) 마이클 L. 리트먼(Michael L. Littman)은 “지난 5년 동안 AI는 연구실이나 기타 고도로 통제된 환경에서 주로 일어나는 일에서 사회에서 사람들의 삶에 영향을 미치는 것으로 도약했다”고 말했다.

“이 기술은 5~10년 전만 해도 꿈꿀 수 있었던 놀라운 일을 하고 있기 때문에 정말 흥미롭지만 그러나 동시에 이 분야는 이 기술의 사회적 영향을 파악하고 있으며 다음 개척자는 위험을 최소화하면서 AI의 이점을 얻을 수 있는 방법에 대해 생각하고 있다.”

패널은 AI의 발전과 관련하여 음성 및 언어 처리, 컴퓨터 비전 및 기타 영역을 포함한 AI의 하위 분야 전반에 걸쳐 상당한 발전을 언급했다. 이러한 발전의 대부분은 머신 러닝 기술, 특히 딥 러닝 시스템의 발전에 의해 주도되었으며, 이는 최근 몇 년 동안 학문적 환경에서 일상적인 애플리케이션으로 도약했다.

AI의 "DALL-E"는 다음과 같은 프롬프트를 제공합니다. "스테인드 글라스 창문과 함께"푸른 딸기의 이미지"라고 말했다. 웹 기반 이미지 검색과 유사한 쿼리는 파란색 딸기, 파란색 스테인드글라스를 생성했다.(이미지 : AI100 / 스탠포드 인간중심 인공지능연구소)


예를 들어 자연어 처리 분야에서 AI 기반 시스템은 이제 단어를 인식할 수 있을 뿐만 아니라 단어가 문법적으로 어떻게 사용되고 다양한 맥락에서 의미가 변할 수 있는지 이해할 수 있습니다. 이는 더 나은 웹 검색, 예측 텍스트 앱, 챗봇 등을 가능하게 했습니다. 이러한 시스템 중 일부는 이제 인간이 만든 텍스트와 구별하기 어려운 원본 텍스트를 생성할 수 있다.

다른 곳에서는 AI 시스템이 훈련된 병리학자에 필적하는 정확도로 암 및 기타 상태를 진단하고 있습니다. AI를 사용한 연구 기술은 인간 게놈에 대한 새로운 통찰력을 제공하고 새로운 의약품의 발견을 가속화했습니다.

그리고 오랫동안 약속된 자율 주행 자동차가 아직 널리 사용되지는 않지만 차선 이탈 경고 및 적응형 크루즈 컨트롤과 같은 AI 기반 운전자 지원 시스템은 대부분의 신차에 표준 장비입니다.

Littman은 최근 AI 발전 중 일부는 현장 외부의 관찰자들에 의해 간과될 수 있지만 실제로는 기본 AI 기술의 극적인 발전을 반영한다고 말합니다. 한 가지 관련성 있는 예는 COVID-19 전염병 동안 많은 사람들의 재택 근무 생활의 유비쿼터스 일부가 된 화상 회의에서 배경 이미지를 사용하는 것입니다.

Littman은 "배경 이미지 앞에 사용자를 배치하려면 시스템이 뒤에 있는 물체와 사용자를 구별해야 합니다. 이는 픽셀 집합만으로는 쉽지 않습니다."라고 말했습니다. “전경과 배경을 구별할 수 있을 만큼 이미지를 잘 이해할 수 있다는 것은 5년 전 실험실에서 일어날 수 있었던 일이지만 확실히 모든 사람의 컴퓨터에서 실시간으로 높은 프레임 속도로 일어날 수 있는 일은 아니었습니다. 상당히 놀라운 발전입니다.”

AI의 위험과 위험에 대해 패널은 초지능 기계가 세계를 지배하는 디스토피아 시나리오를 상상하지 않습니다. AI의 실제 위험은 조금 더 미묘하지만 덜 우려스럽습니다.

보고서에 언급된 위험 중 일부는 AI의 의도적인 오용에서 비롯됩니다. 잘못된 정보를 퍼뜨리거나 사람들의 평판을 훼손하는 데 사용되는 딥페이크 이미지와 비디오 또는 대중의 담론과 의견을 조작하는 데 사용되는 온라인 봇입니다.

다른 위험은 "공중 의식의 일부 구석에서 AI 의사 결정과 관련된 중립성과 공평성의 분위기로 인해 시스템이 편향된 역사적 결정이나 노골적인 차별의 결과일지라도 객관적으로 받아들여지는 결과"에서 비롯됩니다.

AI의 사용이 증가함에 따라 이러한 종류의 문제는 더 널리 퍼질 가능성이 있습니다. Littman은 좋은 소식은 해당 분야가 이러한 위험을 심각하게 받아들이고 심리학, 공공 정책 및 기타 분야의 전문가로부터 의견을 적극적으로 구하여 위험을 완화하는 방법을 모색하고 있다는 것입니다. 보고서를 작성한 패널의 구성은 현장에 대한 시야를 넓히는 것을 반영한다고 Littman은 말했다.

Littman은 "패널은 거의 절반의 사회 과학자와 절반의 컴퓨터 공학 전문가로 구성되어 있으며 AI에 대한 지식이 사회 과학자들 사이에 얼마나 깊은지 매우 즐겁게 놀랐습니다."라고 말했습니다. “우리는 이제 AI 전문가로 간주되는 다양한 분야에서 일하는 사람들을 보유하고 있습니다. 이는 긍정적인 추세입니다.”라고 밝혔다.

저작권자 © 디지털비즈온 무단전재 및 재배포 금지

개의 댓글

0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400

내 댓글 모음

하단영역