728x90

저작자 : 강기봉(freekgb@gmail.com)

 

인공지능의 안전성 내지는 위험성에 대해 잘 인식하지 못 할 수도 있다. 특히, 인공지능에 의한 짜릿하고 즐거운 기억들이 이를 더욱 방해할지도 모르고 괜한 걱정이나 규제일 수도 있다고 생각할 수도 있다. 그리고 영화 스페이스 오디세이, 월-E, 로보캅 등의 SF 영화들을 보면서 이건 아마도 먼 훗날의 이야기인 것처럼 느낄 수도 있다. 

 

그렇지만 우리는 이미 서버 관리 프로그램이 해킹 프로그램으로 둔갑하거나, 편리한 소프트웨어로 여겼던 것에 의해 프라이버시가 침해되거나, 앱을 통한 피싱, 인터넷 사기 등에 의해 피해를 받는 상황 등을 겪어 왔고, 이러한 것들이 인공지능에 의해 당장에 더 용이해지고 고도화되었거나 될 것이라는 것도 알고 있다. 특히 보안 문제는 갈수록 심각해지고 있다. 

 

이런 상황에서 국제적으로 인공지능에 대한 안전성 문제가 논의 및 입법화되어 왔다. 그리고 이러한 문제는 국제적으로 지속적인 논의가 이어질 것이다. 인공지능 기술은 기술중립성이라는 측면에서 기술 발전 및 산업 활용을 도모해야 하겠지만, 그 활용에 있어서는 통제 가능하도록 규제해야 한다. 싸고 편하다고 유전자변형 농축산물을 무구잡이로 유통하지 않고 통제하는 것과 같은 이치다. 이에 더해 인간복제, 유전자 변형 등과 같이 윤리 측면에서 개발 단계에서부터 문제가 되는 기술 사안들을 규제해야 할 수도 있다.

 

인터넷 관련 기술의 발전과 별개로 크래킹(해킹의 나쁜 측면), 바이러스 등에 대해 철저하게 규제하고 대비하는 것처럼, (과도한 규제를 배제하면서) 인공지능 기술 및 산업의 발전을 이루면서도, 적절하고 합리적으로 인공지능에 의한 문제 상황들을 예측하고 통제하는 노력도 반드시 필요하다.

 

* 기사 : 이동인 기자, [단독] 샘 올트먼 “핵 처럼 국제기구 설립해 AI안전성 감시해야”, 매일경제, 2025.02.03 자 https://www.mk.co.kr/news/world/11230794

반응형

글 보관함

카운터

Total : / Today : / Yesterday :
get rsstistory!