빅모델의 쾌속발전과 생활 속에로의 침투는 생성식 인공지능의 광범위한 응용을 불러왔다. 형형색색의 인공지능 부속품들이 짧디짧은 몇달내에 겨끔내길 인류사회의 생산, 생활 속에 들어와 새로운 지능화의 붐을 일으켰다.
수십년 전 계산기기술, 인터넷혁명이 기술과 생산방식의 력사적 변혁을 이끌었다면 생성식 인공지능은 사람들 생활 속에 깊숙이 영향을 주고 있다. 우리가 생성식 인공지능을 사용해 능률 높게 검색을 하고 문건을 만들며 사업 능률을 끌어올리거나 훈련로보트, 대화형 로보트의 신선감을 느낄 때면 문건에 도편생성, 소리생성, 영상생성, 생성식 인공지능을 사용하면서 생기는 잠재된 위험도 소리없이 침투된다는 것을 잊지 말아야 한다.
과학기술 혁신의 이중성은 예전부터 사회의 광범한 주목을 받아왔다. 인터넷의 데이터 비밀보호에서 지능로보트의 도덕륜리에 이르기까지, 또 생성형 인공지능이 개인비밀에 대한 처리와 잠재적 사기행위 위험 유발까지 어떻게 규범 응용할 것인가는 우리가 더욱 깊이있게 사색해야 할 문제이다.
사용자가 생성형 인공지능 도구에 개인, 회사 혹은 소속 사회기구의 비공개 정보를 제공할 수 있다. 모델은 이러한 데이터를 얻은 후에 계속되는 각류 생성형 임무중 정보를 흘릴 수 있다.
생성형 인공지능은 대량의 데이터를 처리할 수 있다. 하지만 지적재산권 보호, 개인비밀 보호, 허위정보 타격 등 면에서 새로운 도전을 초래할 수 있다. 인공지능을 적극적으로 관리하면서 법치와 사회교육 이 두가지를 동시에 틀어쥐여야 한다.
우선 안전하고 질서 있는 법치환경을 조성하고 생성형 인공지능 봉사를 규범화해야 한다. 허위정보의 전파를 줄이고 특정 령역에서의 사용을 금지 혹은 제한하도록 명확히 해야 한다. 전문적인 기구를 내와 기술 심사와 인증을 책임지도록 하고 생성형 인공지능 시스템의 안전성, 신뢰성, 륜리문제를 평가하도록 해야 한다.
생성형 인공지능 시스템에 문제가 나타났을 때의 법률책임과 배상기제에 대해서는 시스템을 설계해 개발자, 운영상 및 사용사의 책임분배에 대한 토론을 벌릴 수 있다. 본질적으로 기계로 인한 모든 행위는 모두 주체의 책임이 따라야 한다. 생성형 인공지능이 책임주체를 분명히 할 수 있고 또 어떻게 하는가 하는 것은 중요하고 긴박한 문제가 아닐 수 없다. 자률주행의 기술발전, 상업응용과 사회문제는 우리에게 참고성 있는 탐색을 해주었다.
다음으로 대중에 대한 교육과 훈련을 강화하는 것도 아주 중요하다. 기술로 인한 위험은 자체에서 오기도 하지만 부당한 사용에서 오기도 한다. 어떻게 하면 대중들이 기술을 더 잘 리해하고 더 명지하게 리용하며 기술륜리체계를 더한층 보완할 것인가 하는 문제는 모두 강유력한 사회교육이 안받침되여야 한다. 대중에 대한 교육과 훈련을 강화하고 륜리와 법률의 구속을 강조하는 것으로 이러한 잠재된 위험에 대한 인식을 높여야 한다.
민감한 정보 특히는 기밀정보는 절대 공유해서는 안되며 개인정보 및 데이터의 안전을 보호하도록 사용자들에게 주의를 환기시켜야 한다. 정부, 업종, 기업 등 관련된 부문에서는 위험요소 연구판단에 품을 들여 인공지능의 과학기술 륜리 위험을 효과적으로 방지하며 각 업종의 자률을 일층 강화하여 과학기술이 부단히 인류에 복을 갖다주도록 해야 한다.
경제일보
- 많이 본 기사
- 종합
- 스포츠
- 경제
- 사회