세계 인공지능(AI)안전 정상회의가 일전 영국 블레츨리에서 열렸다. 미국, 영국, 유럽련맹, 중국, 인도 등 여러 나라의 대표들이 이틀간 머리를 맞대고 인공지능기술이 쾌속 발전하면서 초래된 위험과 기회를 둘러싸고 토론했다.
인공지능 시대에 접어들면서 AI를 활용한 연구가 활성화될 수 있도록 사용자의 AI 자원 접근성을 높이려는 움직임이 일어나고 있다. 동시에 AI의 잠재적 위험성을 우려하는 목소리들도 커지고 있다. 미국과 영국이 앞장서 안전성 관리·규제에 나섰다.
바이든 미국대통령은 지난달 각 연방기관이 AI 사용을 지도하고 기술에 대한 보호책을 마련할 것을 지시하는 내용을 담은 ‘AI 행정명령’을 내렸다. 립법절차를 거쳐 법으로 통과된 것은 아니기때문에 아직은 련방기관에 업무지시를 하는 수준에 머물 것으로 보여진다. 하지만 미국 정부가 AI의 영향력과 부작용 등을 진지하게 받아들이고 있다는 점에서 이번 행정명령을 긍정적으로 평가하는 목소리들이 나온다.
이번에 세계적으로 처음 열린 AI안전 정상회의에는 28개국 대표와 마이크로소프트, 메타 등 기업이 참석했고 AI 위험성을 평가하고 관리하기로 합의한 ‘블레츨리 선언’이 발표됐다. AI가 생화학무기처럼 위험한 기술을 개발하는 데 쓰일 수 있다는 점에서 안전성 관리가 중요하다는 점에 의견이 모아졌다.
회의에서 캐나다 퀘벡 AI연구소 벤지오 소장은 “우리는 아직 존재하지 않는 AI에 대해 얘기하고 있지만 래년에는 실현화될 수 있는 기술들”이라고 말했다. AI의 편향성, 생성형 AI가 만든 가짜 이미지나 영상 등이 이미 사회적 문제가 되고 있는 가운데 인간을 물리적으로 공격할 수 있는 무기개발 등의 파괴적인 상황 또한 머지 않아 벌어질 수 있는 일이라는 점에서 대비가 필요하다는 것이다.
영국, 미국 두 국가는 AI가 공익적으로 쓰일 수 있도록 ‘국가 AI 연구자원’을 개발할 예정이다. 이를 통해 AI 연구자들이 고용량 데이터 처리 연산이 가능한 시스템에 접근할 수 있도록 클라우드를 공유할 계획이다.
AI 시스템을 훈련시키려면 몇 달이 걸리고 수천만에서 수억딸라의 비용이 들어 학계에서는 불가능하다. 현재 일부 기업들이 AI 력량을 쥐고 있는 가운데 학자들이 연구자원으로 활용할 수 있도록 하는 것은 매우 유의미한 작업이라고 보는 관점들이 많다.
AI 시스템에 대한 접근성을 높이는 만큼 안전성 문제도 더욱 신경써야 하는 상황이다. 이를 위해서는 AI에 대한 ‘표준’과 ‘정의’가 필요하다는 전문가 의견이 제기되고 있다. 가령 생명과학 연구분야에 자금을 지원하는 기관은 AI를 리용한 위험한 생물학적 물질이 개발되지 않도록 기준을 수립하고 지시해야 한다는 설명이다.
AI는 점점 령리해지고 있으며 통제하기 어려워질 수도 있는 만큼 잠재적 위험성을 막을 수 있는 안정장치가 적극적으로 마련돼야 하는 상황이다. 신화넷
- 많이 본 기사
- 종합
- 스포츠
- 경제
- 사회