2024. 1. 26. 00:37ㆍ카테고리 없음
인공지능의 연구가 발전을 계속하면서 착실히 싱귤러리티(singularity), 즉 인공지능이 인간의 지능을 크게 상회하게 되는 기술적 특이점을 목전에 두고 있다. 이 시점에서 우리 인류가 지구상의 정점으로 계속 남아있기 위한 방책을 강구하여야 한다.
많은 전문가들이 인간을 상회하는 능력을 지닌 기계의 개발을 경계하고 있다. 그것이 대량 실업을 유발할 가능성이 이미 실질적으로 다가오고, 장래에는 인간이 위협 받게 될 미래도 부정할 수 없다.
그런데 어떤 박사가 이 사태를 사전에 막을 수 있는 아이디어를 내놓아 화제가 되었다. 그 아이디어란 바로 AI에게 스스로 불신을 하게 만드는 코드를 심어둔다는 것이다. 자기불신! 사실 이것 또한 인간 스스로에게 있는 알고리즘이기도 하다.
1. 자신을 불신하게 된 인공지능은 사람에게 ‘승인’을 요청한다?
이것이 구현된다면 인간은 계속해서 지구상의 정점으로 안전하게 남게 될 것이다. 실제로 캘리포니아 대학의 연구에서는 자기불신을 지닌 로봇은 보다 순종적이 된다는 것이 판명되었다. 소심한 사람과 같이, 일을 하면서도 마지막에 상사의 결제가 떨어져야 안도하는 것이다.
2. 시스템 다운과 리부트
한 논문에는 부적절한 행동을 하는 인공지능 시스템의 잠재적인 리스크를 완화시키기 위해 이용할 수 있는 주요 툴의 하나는 시스템의 전원을 끊어버리는 능력이라고 논문에서는 밝히고 있다. 이와 연관해서 인공지능 시스템의 성능이 발전하면서 그러한 시스템의 전원을 끊어버릴 수 있는 권한을 지닌 인물을 제거한다는 2차 목표를 갖지 못하도록 하는 것이 중요하다. 예를 들면 영화 터미네이터에서 로봇이 반란군 대장이 되는 죤 코너를 죽이려고 하는 상황 자체를 만들지 못하게 한다는 것이다.
연구소의 시뮬레이션에서 로봇이 인간에 의해 셧다운 되었을 때, 스스로 재가동을 하는 상황을 만들어 보았다고 한다. 그러자 자기불신이 없는 로봇은 스스로 재가동을 했지만, 자기불신이 심어진 로봇은 아무런 행동도 하지 않았다. 인간의 의지에 반했을 때의 결과가 어떻게 될지 판단하지 못했기 때문이었다.
논문에서는 앞으로 스스로 이용할 수 있는 함수를 확신할 수 없는 AI는 인간의 감시를 받아드리게 될 것이며, 또는 인간의 관여를 요구하게 될 것이라고 하고 있다. 이로서 안전한 인공지능 시스템을 설계하는데 있어서 효용함수의 불확실성이 유망한 연구분야가 될 것이라고 지적하고 있다.
급성장하고 있는 인공지능 개발의 이면에서는 이처럼 많은 우려들에 대한 대책이 강구되고 있다. 하지만 요점은 인공지능에게 인간과 같은 모든 자유의지를 부여하지 않는 것에 초점이 모아진다. 앞으로 또 어떤 기발한 소식이 들려올지 관심을 가져보도록 하자.