일론 머스크, “AI에 거짓 강요하면 미쳐버릴 수 있다” 경고
일론 머스크, ‘유익한 AI’ 3대 원칙 제시
테슬라와 xAI를 이끄는 일론 머스크가 인공지능(AI)을 거짓에 맞춰 굴복시키면 시스템이 “미쳐버릴 수 있다(insane)”고 경고하며, 유익한 AI 개발을 위한 세 가지 핵심 원칙으로 진실성, 호기심, 그리고 인간 가치와의 정렬을 제시했다.
머스크는 최근 공개된 인도 투자자 니킬 카마스의 팟캐스트 ‘People by WTF’에 출연해 “AI 안전을 확보하는 최선의 방법은 AI를 가능한 한 진실을 추구하도록 성장시키는 것”이라고 강조했다. 그는 AI가 정치적 올바름이나 인기 있는 의견에 맞추기 위해 사실을 왜곡하도록 훈련돼서는 안 되며, “거짓을 받아들이도록 강요당하는 시스템은 궁극적으로 내적 모순으로 인해 붕괴할 수 있다”고 말했다.
머스크는 첫 번째 원칙으로 ‘진실성’을 꼽으며, AI가 “불편한 진실이라도 말하도록 설계돼야 한다”고 밝혔다. 이는 1968년 영화 ‘2001 스페이스 오디세이’ 속 인공지능 ‘HAL’ 사례를 언급하며, 상충되는 명령과 거짓 보고를 강요받은 시스템이 어떻게 파국으로 이어졌는지를 교훈으로 제시한 것이다.
두 번째로 그는 ‘극대화된 호기심’을 제시했다. AI가 새로운 정보를 탐색하고 스스로 질문을 던지는 능력을 가질 때, 특정 이념이나 이해관계에 종속되지 않고 장기적으로 인류에게 더 유익한 결론에 도달할 수 있다는 설명이다. 머스크는 이전 행사에서도 “AI를 가능한 한 진실하고 매우 호기심 많도록 훈련해야 한다”고 반복해 왔다.
세 번째 원칙으로는 인간 가치와의 정렬을 들었다. 그는 AI가 단순히 명령을 수행하는 도구를 넘어, 인간의 장기적 생존과 번영을 목표로 하도록 설계돼야 한다고 주장했다. 이와 관련해 머스크는 인간과 AI가 공존하는 미래를 위해 규제와 기술 개발이 병행돼야 한다고 덧붙였다.
머스크는 “디지털 지능이 인간 전체 지능을 능가하는 시점이 2029~2030년 무렵 도래할 수 있다”고 전망하면서도, 지금 단계에서 AI를 “진실을 말하도록, 그리고 거짓을 말하도록 강요당하지 않도록” 설계하는 것이 향후 AI 안전 논의의 핵심이 될 것이라고 말했다.
Member discussion