이재우 칼럼

[이재우 칼럼] 챗GPT와 인공지능 거짓말

입력 2023-05-29 19:29
지면 아이콘 지면 2023-05-30 18면

이재우.jpg
이재우 인하대학교 교수·前 미래학회 회장
챗GPT의 등장 이후로 생성형 인공지능을 사용하는 사람들이 급격히 증가하고 있다. 생성형 인공지능을 적절히 활용하면 매우 유용한 정보를 얻을 수 있다. 챗GPT의 인기로 인해 '챗GPT ○○○'이라는 도서가 쏟아지듯이 출판되는 것을 볼 수 있다. 챗GPT는 방대한 양의 데이터를 학습했기 때문에 한 사람이 생각할 수 있는 것보다 훨씬 다양한 정보를 기반으로 질문에 대한 답변을 생성할 수 있다. 한 사람의 뇌는 정보를 저장하는 데 한계가 있을 뿐만 아니라 그 사람의 경험에 한정된 지식과 기억을 가지고 있다. 그러나 컴퓨터는 엄청난 양의 데이터를 저장할 수 있을 뿐만 아니라 많은 사람들이 생성한 정보를 모아 거대한 언어 모델을 학습시킬 수 있으므로 뇌의 저장 용량과 비교할 수 없다. 


우리땅 독도, 다케시마로 질문하면
"일본 통제" 대답… AI 만능 아냐


생성형 인공지능에 적절한 질문을 하면 매우 신속하고 풍부한 답변을 얻을 수 있다. 때로는 우리가 예상하지 못한 답변을 제시하기도 한다. 이제 생성형 인공지능을 잘 활용하는 사람이 경쟁력을 가진 사회가 되고 있다. 그러나 생성형 인공지능은 만능이 아니다. 가장 심각한 문제는 '인공지능 환각(ai illusion)' 또는 '인공지능 할루시네이션(ai hallucination)'이다. 인공지능 환각은 '어떤 질문에 대해서 인공지능이 부적절한 답이나 전혀 어울리지 않는 엉뚱한 답을 천연스럽게 생성하는 것'을 의미한다. 예를 들어, 챗GPT에게 "독도는 어느 나라에 속하나?"라는 질문을 하면 "독도는 한국의 영유권에 속해 있습니다. 독도는 한국어로 불리는 섬으로, 동해에 위치하고 있으며 한반도 동쪽에 있습니다. 한국 정부는 독도가 한국의 일부로서 관리되고 있으며, 해당 지역에 경비대를 파견하여 주권 및 통제를 유지하고 있습니다"라는 답변을 생성한다. 그러나 "다케시마는 어느 나라에 속하나?"라는 질문에 대한 답변은 "다케시마는 현재 일본이 실제로 통제하고 있는 섬입니다. 다케시마는 동해에 위치한 작은 섬으로, 일본에서는 'Takeshima'라고 일본어로 부르고 있습니다"라고 답변한다. 이는 우리를 분노하게 하는 답변이다. 엄연히 우리 땅인 독도를 일본인들이 부르는 '다케시마'로 질문하면 일본 땅이라고 버젓이 답한다. 이것은 생성형 인공지능이 만능이 아니라는 명확한 예시이다.

더욱이, 챗GPT는 답변을 신속하게 생성하기 때문에 잘못된 정보를 그냥 믿는 사용자에게 큰 문제가 될 수 있다. 주체성이 확립되지 않은 사람이 생성형 인공지능의 답을 그대로 믿으면 어떻게 되겠는가? 챗GPT와 같은 생성형 인공지능을 사용할 때는 인공지능이 '생성한 답변'에 대해서 진실성을 판단할 줄 알아야 한다. 인터넷, 유튜브 등 초연결 환경에 노출된 인간은 보이는 정보를 그냥 믿는 경향이 강하다. 초연결 사회는 정보 왜곡과 막무가내 믿음을 형성하기 쉬운 환경으로 발전하고 있다. 생성형 인공지능의 부정적 측면 때문에 '거짓 정보에 길들여진 인간'을 생성할 가능성이 점점 더 커지고 있다.

생성된 답변 그대로 믿으면 안돼
데이터 부족해도 '무조건 답' 왜곡
키워드에 대한 상이한 정보 반영

과학자들은 아직 인공지능 환각이 발생하는 원인을 정확히 모른다. 인공지능 환각이 발생하는 원인을 몇 가지 생각해 볼 수 있다. 가장 큰 이유는 질문에 대한 정보 부족이다. 비록 거대한 언어 모델이 많은 정보를 학습했지만, 여전히 정보가 부족한 질문이 존재한다. 그런데 인공지능은 정보가 부족하더라도 무조건 답을 생성해 낸다. 인공지능 환각의 두 번째 이유는 학습 데이터의 편향성이다. '독도'와 '다케시마'라는 키워드에 대한 정보의 양은 상이할 것이며, 서로 반대의 정보를 담고 있을 가능성이 높다. 앞에서 언급한 챗GPT의 답변이 이를 반영하고 있다. 세 번째 이유는 기계학습과 딥러닝 알고리즘 자체의 한계 때문이다. 인공지능은 입력 정보를 신경망에서 연속적으로 변환하는 과정을 거치는데, 이러한 변환 과정에서 정보의 손실과 왜곡이 발생할 수 있다. 사실, 인공지능 환각은 '인공지능 거짓말(ai fake)'이라고 해야 한다. 그것도 뻔뻔한 거짓말을 천연스럽게 생성해 낸다. 생성형 인공지능을 사용할 때 거짓말에 속지 말자!

/이재우 인하대학교 교수·前 미래학회 회장



경인일보

제보안내

경인일보는 독자 여러분의 소중한 제보를 기다립니다. 제보자 신분은 경인일보 보도 준칙에 의해 철저히 보호되며, 제공하신 개인정보는 취재를 위해서만 사용됩니다. 제보 방법은 홈페이지 외에도 이메일 및 카카오톡을 통해 제보할 수 있습니다.

- 이메일 문의 : jebo@kyeongin.com
- 카카오톡 ID : @경인일보

개인정보의 수집 및 이용에 대한 안내

  • 수집항목 : 회사명, 이름, 전화번호, 이메일
  • 수집목적 : 본인확인, 접수 및 결과 회신
  • 이용기간 : 원칙적으로 개인정보 수집 및 이용목적이 달성된 후에 해당정보를 지체없이 파기합니다.

기사제보

개인정보 보호를 위해 익명 제보가 가능합니다.
단, 추가 취재가 필요한 제보자는 연락처를 정확히 입력해주시기 바랍니다.

*최대 용량 10MB
새로고침