AI 지도자들, AI의 위험성을 공개적으로 인정하는 성명서에 서명

  • Sep 03, 2023

업계 리더와 연구자들에 따르면 인공지능은 인간을 멸종시킬 수 있다고 합니다.

AI에 대해 증언하는 샘 알트먼

샘 알트먼(Sam Altman)이 AI에 대해 증언하고 있습니다.

McNamee/Getty 이미지 획득

3월에는 기술 산업 전문가들이 주도하는 공개 서한 기술이 "사회와 인류에 심각한 위험"을 초래할 수 있다는 두려움 때문에 고급 AI 모델 개발을 중단하려고 했습니다.

이번 주, 성명서 AI Geoffrey Hinton의 "대부"인 OpenAI CEO Sam Altman과 다른 사람들이 공동 서명하여 AI가 인류를 멸종시킬 위험을 줄이려고 노력하고 있습니다. 성명서의 서문에서는 업계 리더들이 AI의 가장 심각한 위협에 대해 공개적으로 논의할 것을 권장합니다.

또한: ChatGPT를 사용하여 코드를 작성하는 방법

성명서에 따르면 AI가 인류에 미칠 위험은 너무 심각해 전 세계적인 유행병이나 핵전쟁에 비견될 정도다. 다른 공동 서명자는 Google DeepMind의 연구원, Microsoft의 최고 기술 책임자인 Kevin Scott, 인터넷 보안 선구자인 Bruce Schneier입니다.

Altman이 대중화한 오늘날의 대규모 언어 모델(LLM) 채팅GPT 아직 달성할 수 없다 인공일반지능 (AGI). 그러나 업계 리더들은 LLM이 그 지점까지 발전하는 것을 우려하고 있습니다. AGI는 인간의 지능과 동등하거나 능가할 수 있는 인공 지능을 가진 존재를 정의하는 개념이다.

또한: ChatGPT는 어떻게 작동하나요?

AGI는 OpenAI, Google DeepMind 및 Anthropic이 언젠가 달성하기를 희망하는 성과입니다. 그러나 각 회사는 자사 기술이 AGI를 달성하면 상당한 결과가 발생할 수 있음을 인식하고 있습니다.

Altman은 이번 달 초 의회에서 증언한 바에 따르면 다음과 같습니다. 그의 가장 큰 두려움은 AI이다 "세계에 심각한 해를 끼치고" 이러한 피해는 여러 가지 방법으로 발생할 수 있습니다.

불과 몇 주 전에 Hinton은 Google에서 신경망 분야에서 일하던 자리에서 갑자기 사임했습니다. CNN에 말하다 그는 "이러한 것들이 우리보다 더 똑똑해지고 있다는 것을 갑자기 깨달은 과학자일 뿐이다."

인공지능

알아야 할 7가지 고급 ChatGPT 프롬프트 작성 팁
2023년 최고의 ChatGPT 플러그인 10개(및 이를 최대한 활용하는 방법)
업무용 AI 도구를 많이 테스트해봤습니다. 지금까지 내가 제일 좋아하는 5개야
인간인가 봇인가? 이 Turing 테스트 게임은 AI 탐지 기술을 테스트합니다.
  • 알아야 할 7가지 고급 ChatGPT 프롬프트 작성 팁
  • 2023년 최고의 ChatGPT 플러그인 10개(및 이를 최대한 활용하는 방법)
  • 업무용 AI 도구를 많이 테스트해봤습니다. 지금까지 내가 제일 좋아하는 5개야
  • 인간인가 봇인가? 이 Turing 테스트 게임은 AI 탐지 기술을 테스트합니다.