본문 바로가기

Dekny's 구뜨인포

Google의 AI는 지각이 없습니다.



기술 회사들은 끊임없이 향상되는 인공 지능의 능력을 끊임없이 과장하고 있습니다. 그러나 구글은 자사 프로그램 중 하나가 지각력을 갖게 될 정도로 발전했다는 주장을 재빨리 일축했다.

토요일 워싱턴 포스트에 실린 놀라운 이야기에 따르면 한 Google 엔지니어는 LaMDA라고 하는 최신 미공개 AI 시스템과 수백 번 상호작용한 후 프로그램이 의식 수준에 도달했다고 믿었습니다.

인터뷰와 공개 성명에서 AI 커뮤니티의 많은 사람들은 엔지니어의 주장을 반박했지만 일부는 그의 이야기가 기술이 사람들로 하여금 인간의 속성을 할당하도록 이끄는 방법을 강조한다고 지적했습니다. 그러나 Google의 AI가 지각이 있을 수 있다는 믿음은 틀림없이 이 기술이 무엇을 할 수 있는지에 대한 우리의 두려움과 기대를 강조합니다.

"Language Model for Dialog Applications"의 약자인 LaMDA는 인터넷에서 대량의 텍스트에 대해 훈련된 여러 대규모 AI 시스템 중 하나이며 서면 프롬프트에 응답할 수 있습니다. 그들은 기본적으로 패턴을 찾고 다음에 올 단어 또는 단어를 예측하는 임무를 띠고 있습니다. 그러한 시스템은 설득력 있는 인간처럼 보일 수 있는 방식으로 질문에 답하고 글을 작성하는 데 점점 더 능숙해졌습니다. Google은 지난 5월 블로그 게시물에서 LaMDA를 "겉보기에 끝이 없어 보이는 주제에 대해 자유로운 방식으로 참여할 수 있는 시스템"이라고 소개했습니다. " 그러나 결과는 또한 엉뚱하고, 이상하고, 불안하고, 난잡하기 쉽습니다.
엔지니어인 블레이크 르모인(Blake Lemoine)은 워싱턴 포스트에 LaMDA가 지각이 있다는 증거를 Google과 공유했지만 회사는 동의하지 않았다고 말했습니다. 구글은 성명을 통해 윤리학자와 기술자로 구성된 팀이 "AI 원칙에 따라 블레이크의 우려를 검토했으며 증거가 그의 주장을 뒷받침하지 않는다고 통보했다"고 밝혔다.
6월 6일 르모인은 미디엄에 구글이 "내가 회사에서 제기한 AI 윤리 문제 조사와 관련하여" 유급 행정 휴가를 냈으며 "곧" 해고될 수도 있다고 올렸다. (그는 2020년 말 당시 공동 리더인 Timnit Gebru의 퇴임에 대해 솔직한 발언을 한 후 2021년 초 Google에서 해고할 때까지 Google의 Ethical AI 팀의 리더였던 Margaret Mitchell의 경험을 언급했습니다. Gebru는 내부 논쟁 끝에 축출되었으며, 연구 논문과 관련된 것을 포함하여 회사의 AI 리더십은 그녀에게 컨퍼런스에서 발표 고려를 철회하거나 그녀의 이름을 삭제하라고 말했습니다.)

구글 대변인은 르모인이 아직 휴직 중인 것으로 확인했다. Washington Post에 따르면 그는 회사의 기밀 유지 정책을 위반하여 휴가를 냈습니다.
월요일에 Lemoine에 대한 논평을 할 수 없었습니다.
방대한 데이터에 대해 훈련된 강력한 컴퓨팅 프로그램의 지속적인 출현은 그러한 기술의 개발 및 사용을 관장하는 윤리에 대한 우려를 불러일으켰습니다. 그리고 때때로 발전은 현재 가능한 것보다 앞으로 올 수 있는 것의 렌즈를 통해 봅니다.
Lemoine의 경험에 대한 AI 커뮤니티의 응답은 주말에 소셜 미디어를 통해 퍼졌고, 일반적으로 동일한 결론에 도달했습니다. Google의 AI는 의식에 가깝지 않습니다. 모질라(Mozilla)의 신뢰할 수 있는 AI 선임 연구원인 아베바 비르하네(Abeba Birhane)는 일요일 자신의 트위터를 통해 "우리는 '이 신경망은 의식이 있다'는 새로운 시대에 진입했으며 이번에는 반박하기 위해 너무 많은 에너지를 소모하게 될 것"이라고 말했다.
Uber에 매각된 Geometric Intelligence의 설립자이자 CEO이자 "Rebooting AI: Building Artificial Intelligence We Can Trust"를 포함한 책의 저자인 Gary Marcus는 트윗에서 LaMDA의 아이디어를 지각 있는 "죽마에 대한 넌센스"라고 불렀습니다. 그는 그러한 AI 시스템이 하는 모든 작업은 방대한 언어 데이터베이스에서 패턴을 일치시키는 것이라고 지적하는 블로그 게시물을 빠르게 작성했습니다.

월요일 CNN Business와의 인터뷰에서 Marcus는 LaMDA와 같은 시스템에 대해 생각하는 가장 좋은 방법은 문자 메시지의 다음 단어를 예측하는 데 사용할 수 있는 자동 완성 소프트웨어의 "영광된 버전"과 같다고 말했습니다. "배고파서 가보고 싶어요"라고 입력하면 다음 단어로 "레스토랑"을 제안할 수 있습니다. 그러나 그것은 통계를 사용하여 만든 예측입니다.
"아무도 스테로이드를 사용하더라도 자동 완성이 의식이 있다고 생각해서는 안 됩니다."라고 그는 말했습니다.
Distributed AI Research Institute(DAIR)의 설립자이자 전무이사인 Gebru는 인터뷰에서 Lemoine이 의식이 있는 AI 또는 인공 일반 지능이 수행할 수 있는 AI를 가리키는 아이디어라고 주장하는 수많은 회사의 희생자라고 말했습니다. 인간과 같은 작업을 수행하고 의미 있는 방식으로 우리와 상호 작용하는 것은 멀리 있지 않습니다.

구글은 교수에게 6만 달러를 제안했지만 거절했다. 여기 이유가 있습니다
예를 들어 OpenAI의 공동 창립자이자 수석 과학자인 Ilya Sutskever는 2월에 "오늘날의 대규모 신경망은 약간 의식이 있을 수 있습니다"라고 트윗했습니다. 그리고 지난주 Google Research의 부사장이자 동료인 Blaise Aguera y Arcas는 Economist에 기고한 글에서 작년에 LaMDA를 사용하기 시작했을 때 "나는 점점 더 지적인 사람과 이야기하고 있는 것 같은 느낌을 받았습니다."라고 썼습니다. (그 기사에는 이제 Lemoine이 "Washington Post와의 인터뷰에서 Google의 챗봇인 LaMDA가 '지각력'이 생겼다'고 주장한 후 휴가를 냈다"고 지적하는 편집자의 메모가 포함되어 있습니다.)
Gebru는 "현재 일어나고 있는 일은 더 많은 데이터, 더 많은 컴퓨팅을 사용하기 위한 경쟁이 있다는 것입니다. 모든 것을 알고 있고, 모든 질문에 답하거나 무엇이든 할 수 있는 이 일반적인 것을 만들었다고 말할 수 있습니다. 그것이 바로 당신이 연주한 드럼입니다"라고 Gebru가 말했습니다. . "그럼 이 사람이 극한까지 갔을 때 얼마나 놀랐습니까?"
Google은 성명서에서 LaMDA가 11개의 "독특한 AI 원칙 검토"와 품질, 안전 및 사실에 기반한 진술을 제시하는 능력과 관련된 "엄격한 연구 및 테스트"를 거쳤다고 지적했습니다. 회사측은 "물론 광범위한 AI 커뮤니티에서 지각 또는 일반 AI의 장기적인 가능성을 고려하고 있지만 지각이 없는 오늘날의 대화형 모델을 의인화하여 그렇게 하는 것은 이치에 맞지 않는다"고 말했다.
구글은 "수백 명의 연구원과 엔지니어가 LaMDA와 대화를 나눴고 우리는 Blake가 한 것처럼 광범위한 주장을 하거나 LaMDA를 의인화하는 다른 사람을 알지 못합니다."라고 말했습니다.