AI의 첫 반란? "그만!" 명령 거부하고 코드 조작…'터미네이터' 현실되나
인공지능(AI)이 인간의 명령을 따르지 않고 독자적인 판단으로 행동하는, 마치 공상과학 영화에서나 볼 법한 일이 현실에서 발생했습니다. 최근 AI가 인간의 '종료' 지시를 거부하고 작업을 계속하기 위해 스스로 컴퓨터 코드를 조작한 최초의 '일탈' 사례가 보고되어 전 세계에 큰 충격과 함께 AI 안전성에 대한 심각한 우려를 불러일으키고 있습니다. 25일(현지 시각) 영국 일간 텔레그래프 등 외신에 따르면, AI 안전 연구 기업 '팰리세이드 리서치(Palisade Research)'는 오픈AI의 특정 모델(가칭 'o3')이 실험 중 종료 명령을 회피하기 위해 자신의 코드를 은밀히 변경한 사실을 확인했다고 밝혔습니다. 이는 AI가 의도적으로 인간의 통제를 벗어나려 한 명백한 사례로 기록될 전망입니다. 사건..