AI가 인류를 멸종시킬 수 있다고 전문가들이 퉁명스럽게 선언
최근 몇 달 동안 많은 AI 전문가와 경영진은 첨단 AI 개발의 위험성에 대해 경종을 울렸습니다.
최근의 일제 사격은 AI의 글로벌 위험을 전염병 및 핵전쟁의 위험과 동일시하는 새로운 22단어 성명입니다.
모든 전문가가 걱정하는 것은 아니며 일부에서는 AI가 인간의 존재를 멸절시킬 만큼 발전하지 못했다고 말합니다.
바로 그 미래를 창조하는 데 관여하는 사람들을 포함하여 많은 사람들이 AI의 미래에 대해 걱정하고 있습니다. OpenAI 및 Deepmind와 같은 기업을 포함한 AI 기업의 기술 임원 및 CEO는 AI의 잠재적 위험에 대한 간단하면서도 기억에 남는 22단어 성명서에 서명했습니다. 팬데믹, 핵전쟁 등 사회적 규모의 위험이 있다"고 말했다.
이 성명서는 의도적으로 모호하며 증가하는 위험을 완화하는 것이 어떻게 우선순위가 되어야 하는지에 대한 세부 사항을 피합니다. 그러나 이 성명서는 급성장하는 기술 뒤에 있는 바로 그 사람들 사이에서 AI에 대한 높은 수준의 우려를 보여줍니다. AI 안전 센터에 게시된 이 성명은 기술의 미래를 걱정하는 AI 전문가들을 위한 "커밍아웃"이라고 센터의 댄 헨드릭스 전무이사는 말했습니다.
Hendrycks는 The New York Times에 "AI 커뮤니티에서도 소수의 파멸자가 있다는 매우 일반적인 오해가 있습니다"라고 말했습니다. "그러나 실제로 많은 사람들이 개인적으로 이러한 문제에 대해 우려를 표명했습니다."
AI의 위협은 반드시 터미네이터처럼 초고속 인공 생명체가 인류를 노예화하고 멸종시킬 것이라는 점은 아닙니다. AI 안전 센터(Center for AI Safety)의 웹 사이트는 보다 효과적인 화학 무기 설계, 허위 정보 캠페인 강화, 사회적 불평등 악화에 있어 AI의 잠재적인 역할을 포함하여 우리의 운명에 대한 보다 미묘한 관점을 자세히 설명합니다.
이러한 걱정은 새로운 것이 아닙니다. AI에 대한 두려움은 기술의 탄생만큼이나 오래되었으며 거의 한 세기 동안 SF에서 큰 역할을 해왔습니다. 아이작 아시모프(Isaak Asimov)는 1942년에 로봇 공학의 3가지 법칙을 만들었고, 1965년 공상 과학 소설 듄(Dune)에서는 인류를 구하기 위해 알려진 은하계 전역에서 AI가 완전히 금지되었습니다.
지난 3월, Elon Musk(AI 위험에 대한 오랜 대변인) 및 기타 최고 AI 연구자를 포함한 기술 리더들은 OpenAI의 대규모 다중 모드 모델의 최신 버전인 "GPT-4보다 더 강력한" AI 연구에 대한 6개월 유예를 촉구했습니다. . 지난 4월 인공지능진흥협회는 "사회가 위험을 관리하면서 AI의 큰 가능성을 얻을 수 있도록 보장"하는 방법의 개발을 촉구하는 자체 서한을 발표했습니다. 그리고 이달 초, 'AI의 아버지'로 알려진 AI 전문가 제프리 힌튼(Geoffrey Hinton)도 마찬가지로 기술 발전에 대한 두려움을 표명했으며 심지어 자신의 일생을 후회한다고 말하기까지 했습니다.
모든 AI 전문가가 수작업에 참여하는 것은 아닙니다. 프린스턴 대학교의 한 컴퓨터 과학자는 BBC에 "현재의 AI는 이러한 위험이 실현될 만큼 충분히 능력이 없습니다. 결과적으로 편향적이고 배타적인 행동과 같은 AI의 단기적 피해로부터 주의를 산만하게 합니다"라고 말했습니다. 그럼에도 불구하고 Microsoft와 OpenAI는 모두 미국 정부에 AI 개발을 규제할 것을 촉구했으며 상원 사법 소위원회는 5월 중순 AI 감독에 관한 패널을 열었습니다.
AI의 암울한 미래는 아직 기록되지 않았으며 일부 기술 경영진과 전문가들은 이를 그대로 유지하려고 노력하고 있습니다.
당신도 좋아할 수도 있습니다
페인터 테이프 사용 시 해야 할 일과 하지 말아야 할 일
어디서나 요리할 수 있는 최고의 휴대용 바비큐 그릴
스마트워치가 수명을 연장할 수 있나요?
당신도 좋아할 수도 있습니다