“AI 챗봇 기이한 답변, 사용자 영향 커”
“AI 챗봇 기이한 답변, 사용자 영향 커”
  • 승인 2023.02.27 21:40
이 기사를 공유합니다

NYT, 美 대학 교수 논문 보도
이용자의 말·의도 왜곡돼 반영
오픈AI의 ‘챗GPT’, 마이크로소프트(MS)의 빙 챗봇, 구글의 ‘바드’ 등 인공지능(AI) 챗봇들이 때때로 거짓말이나 황당한 답변 등 이상한 결과를 내놓는 이유는 무엇일까.

26일(현지시간) 미 일간 뉴욕타임스(NYT)에 따르면 AI 과학자들은 AI 챗봇들의 기이한 답변이 상당 부분 사용자인 인간들의 영향 때문이라고 진단했다.

1970년대 말부터 신경망 AI를 연구해 현대 AI의 기초 구축에 기여한 테리 세즈노스키 샌디에이고 캘리포니아대(UC샌디에이고) 교수는 챗봇 이용자의 말과 의도가 챗봇에 왜곡돼 반영될 수 있다고 설명했다.

최근 이런 내용을 담은 연구논문을 과학저널 ‘뉴로 컴퓨테이션’에 발표한 그는 “챗봇은 사람들이 찾고 원하는 것은 무엇이든 제공한다”고 말했다.

우선 이들 챗봇은 인터넷에 있는 엄청난 양의 디지털 문서를 분석해 학습하는 거대언어모델(LLM) 기술로 구동한다.

문제는 LLM이 학습하는 문서에는 거짓되거나 편향되거나 유해한 내용이 포함되며, 학습에 필요한 시간 때문에 다소 낡은 내용이 포함된다.

또 LLM은 이렇게 학습한 내용을 바탕으로 챗봇이 무엇을 말해야 하는지 단어 단위로 추론해 다음 단어를 생성하는데, 챗봇 자신뿐만 아니라 이용자가 말한 문장까지 모두 포함해 다음 단어를 추론한다.

따라서 이용자는 대화가 길어질수록 자신도 모르게 챗봇이 내놓는 답변에 더 많은 영향을 미치게 된다.

연합뉴스
  • 대구광역시 동구 동부로94(신천 3동 283-8)
  • 대표전화 : 053-424-0004
  • 팩스 : 053-426-6644
  • 제호 : 대구신문
  • 등록번호 : 대구 가 00003호 (일간)
  • 등록일 : 1996-09-06
  • 인터넷신문등록번호: 대구, 아00442
  • 발행·편집인 : 김상섭
  • 청소년보호책임자 : 배수경
  • 대구신문 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 대구신문. All rights reserved. mail to micbae@idaegu.co.kr
ND소프트
많이 본 기사
영상뉴스
SNS에서도 대구신문의
뉴스를 받아보세요
최신기사