
로봇청소기가 사람을 향해 욕설을 퍼붓고 주인을 향해 인종차별적인 발언을 쏟아내며, 집에서 키우는 반려견을 계속 쫓아 다니면서 위협을 하기도 했다는 다소 충격적인 내용의 기사를 접했다. 미국에 사는 모 변호사는 TV를 시청하던 중 처음에는 로봇청소기에서 이상한 소리가 나기 시작했으며 누군가의 목소리가 작게 들리는 것 같았다가 이내 청소기 앱에서 낯선 사람이 자동 먼지 청소기의 라이브 카메라 피드와 원격 제어기능을 해킹한 것을 발견하고 기계 오류라고 생각해 비밀번호를 바꾸고 청소기를 재부팅 했으나, 공포 영화의 한 장면처럼 로봇청소기가 움직이기 시작하면서 음란한 욕들을 쏟아내기 시작했다고 한다.
이는 인공지능의 윤리적 문제와 한계를 극단적으로 보여주는 예이다. 또한, 스마트 홈 시대의 그림자를 보여주는 주목할만한 경고이기도 하다.
이렇듯 AI기술의 발전과 함께 더욱 더 대두되는 것이 윤리적인 부분이다. 특히 아직 자아가 확립되지 않은 어린 학생이나 청소년들에게 더 치명적일 수 있는 생성형 AI의 심각한 윤리적 문제들을 살펴보도록 하자.
첫째, 개인정보보호와 데이터 보안이다. 개인정보보호에서 AI에 입력하는 정보가 어떻게 저장되고 사용되는지 이해해야 하며, 데이터 보안에서 AI시스템의 보안 취약점으로 인한 데이터 유출 가능성을 인식해야 한다. 하버드대의 보고서에 따르면, AI 시스템의 데이터 처리 과정에서 개인정보 침해 위험이 크게 증가하고 있고, 논문연구에 의하면 AI 모델이 학습 데이터로부터 개인정보를 추출할 수 있는 위험성을 지적하고 있다.
둘째, 책임과 투명성이다. AI의 결정이 미치는 영향이 커질수록, 그 결정에 대한 책임과 투명성 문제가 중요해지는데, AI의 결정에 대한 책임소재와 AI 시스템의 작동원리에 대한 투명한 공개의 필요성이다. 논문을 살펴보니 AI 시스템의 책임성과 투명성 확보를 위한 국제적 협력의 필요성을 강조하고 있다. 또한, IEEE(국제전기전자기술자협회)는 AI 시스템의 윤리적 설계를 위한 가이드라인을 제시하고 있다.
셋째, 편향성과 차별이다. AI 시스템은 학습 데이터의 편향성을 그대로 반영한다. 이는 성별, 인종, 연령 등에 따른 차별적 결과 가능성과 사회적 고정관념 강화의 위험이 그대로 따라온다. MIT의 보고서는 AI 시스템의 편향성 문제가 여전히 해결되지 않고 있음을 지적하고 있다. 예를 들어, 2018년 아마존의 AI 채용 시스템이 여성 지원자를 차별한다는 문제가 발견되어 사용이 중단된 사례가 있다.
넷째, 일자리 대체와 사회적 영향이다. AI로 인한 일자리 변화는 큰 사회적 이슈이기도 하다. 특정 직종의 일자리 감소 가능성과 새로운 직종의 등장과 그에 따른 교육의 필요성이다. ‘미래 일자리보고서 2020’에 따르면, AI와 자동화로 인해 2025년까지 8500만개의 일자리가 사라질 수 있지만, 동시에 9700만개의 새로운 일자리가 생길 것으로 예측했다.
이러한 문제들에 대비하고 AI를 책임감 있게 사용하기 위해 ‘AI 윤리 체크리스트’를 활용해보면 좋을 듯하다. 체크리스트의 내용은 ‘AI의 한계를 인식하고 있나?’ ‘AI가 제공하는 정보의 출처와 최신성을 확인했나?’ ‘개인정보보호에 주의를 기울이고 있나?’ ‘AI의 결과물에서 편향성이나 차별적 요소를 확인했나?’ ‘AI의 결정을 맹목적으로 따르지 않고, 비판적으로 검토하고 있나?’ ‘AI 사용이 타인에게 미칠 수 있는 영향을 고려했나?’ ‘AI기술에 대한 지속적인 학습을 하고 있나?’ 등이다. 스스로에게 반복해 질문하면서 활용하다 보면 더욱 책임감 있고 윤리적으로 생성형 AI를 사용할 수 있을 것이다.
생성형 AI는 우리의 삶을 크게 변화시키는 도구이기도 하다. 하지만 여러 가지 한계와 윤리적 문제가 있음을 알 수 있다. 생성형 AI를 맹목적으로 믿거나 거부하는 극단적인 태도는 지양하고, 다양한 시각으로 AI를 바라볼 필요가 있다. 개인사용자는 생성형 AI를 책임감 있게 사용하고 비판적으로 평가할 수 있어야 한다. 이는 단순히 기술을 다루는 능력을 넘어, 우리 사회와 미래에 대한 연결고리가 될 것이다.
이미화 메타버스교육연구소 수석연구원 동의대 외래교수 부산대 교육공학박사