슬기로운 생성형 AI 활용 방법: 할루시네이션

생성형 AI 리터러시

생성형 AI란 무엇인가?

생성형 인공 지능(생성형 AI)은 대화, 이야기, 이미지, 동영상, 음악 등 새로운 콘텐츠와 아이디어를 만들 수 있는 AI의 일종이다. AI 기술은 이미지 인식, 자연어 처리(NLP), 번역과 같이 새로운 컴퓨팅 작업에서 인간 지능을 모방하려고 시도한다. 생성형 AI는 인공 지능의 다음 단계이다. 인간 언어, 프로그래밍 언어, 예술, 화학, 생물학 또는 복잡한 주제를 학습하도록 AI를 학습시킬 수 있다. AI는 학습 데이터를 재사용하여 새로운 문제를 해결한다. 예를 들어, 영어 어휘를 학습하고 이를 처리하는 단어로 시를 지을 수 있다.

생성형 AI는 긍정적·부정적 영향을 동시에 갖는 기술의 양면적 특성을 갖고 있다. 생성형 AI의 부정적인 영향으로는 저작권 침해, 개인정보유출, 허위조작정보, 사회적 편견이 내포된 편향된 정보, 과도한 의존에 의한 사고력 및 역량 저하, 딥페이크(첨단조작기술) 오남용 등을 들 수 있으며, 잘못 이용될 시 심각한 사회적 문제를 가져올 수 있기 때문에 생성형 AI의 윤리적 활용을 위한 노력이 필요하다. <내용 및 표 출처: 정책브리핑, AWS>

생성형 AI가 불러온 변화

챗GPT로 대표되는 생성형 AI 모델이 불러온 변화엔 어떤 것들이 있을까? 우선 검색시장의 획기적 변화이다. 마이크로소프트는 챗GPT를 앞세워 지난 20년간 구글이 독점했던 검색 시장에 도전장을 내밀었는데, 챗GPT의 등장으로 검색 시장은 효율적인 검색에서 생성과 창의가 결합된 검색으로 패러다임이 전환되고 있다.

또한 다양한 산업에서 AI를 접목해 업무 효율성을 극대화하는 작업이 가시화되고 있다. 이미 보고서를 요약하거나 시, 소설, 마케팅 문구 창작 등 다양한 텍스트 서비스와 광고용 이미지 생성에 활용되고 있다. 다양한 산업과 서비스에 생성 AI가 접목되면서 ‘생성형 AI 플러그인’ 생태계가 도래한 것이다. 이러한 생성형 AI를 효율적으로 활용하기 위해 주의해야할 3가지 문제점과 극복방법에 대해 알아보도록 하며, 본 장에서는 AI의 신뢰성 문제를 다룬다.

 할루시네이션(Hallucination): 대화형 인공지능에서 존재하지 않거나 맥락에 관계 없는 답을 마치 진실인것처럼 답변하는 것을 뜻한다.

AI 생성물의 신뢰성 문제(할루시네이션)

할루시네이션은 AI 모델이 정확하지 않거나 사실이 아닌 조작된 정보를 생성하는 것을 의미한다. 이러한 오류는 불충분한 학습 데이터, 모델의 잘못된 가정, 모델 학습에 사용된 데이터의 편향 등 다양한 요인으로 인해 발생한다.  따라서 할루시네이션 문제를 해결하는 데 주의를 기울이고 선제적으로 대처함으로써 잠재적인 위험을 최소화하고 생성형 AI의 장점을 최대한 활용할 수 있다.

 할루시네이션의 예시(Chat GPT의 “세종대왕 맥북프로 던짐 사건”) 

 할루시네이션을 극복하기 위한 방법

1

AI가 생성한 데이터는 항상 검증의 절차를 거친다.
AI의 답변에는 항상 거짓말이 섞여있을 수 있다는 것을 염두해 두어야 한다. 특히 전문분야가 아닌 영역에서 활용할 때는 더욱 더 세심한 주의가 필요하다.  따라서 AI가 생성해낸 데이터가 사실에 근거한 정확한 데이터인지 검증하는 습관을 들여야 한다.  

2

여러 AI를 사용해 데이터를 비교분석한다.
각각의 AI가 학습한 데이터는 서로 다르기 때문에 동일한 질문이라도 각각의 AI의 답변은 다를 수 있다. 따라서 하나의 AI만 사용하는 것이 아닌라 다양한 AI를 활용해 본인이 원하는 답을 비교, 분석할 수 있는 힘을 길러야 한다.

3

데이터의 출처를 확실히 하고, 프롬프트를 정밀하게 입력한다.
유료 서비스인 GPT4는 웹 연동 서비스를 통해 매개변수를 포함한 웹 기반 데이터도 검색하는 기능이 있다. 또 GPT4에 내장된 컨센서스 등의 툴을 활용하면 논문 검색 시 실존하고 출처가 확실한 자료만으로 찾는다. 또한 AI의 답변은 정보를 나열했을 뿐, 이해하고 제공하는 게 아니다. 따라서 질문할 때 ‘공식 보고서나 논문 검색 등을 인용해서’ 설명해 달라고 하거나, ‘최근 5년 간, 국내에서 기사로 확인할 수 있는 내용’ 같은 문장을 덧붙이면 정확성이 향상된다.

4

AI에게 원하는 것과 원하지 않는 것을 알려준다.
AI 모델을 사용할 때는 원하는 것과 원하지 않는 것을 모델에 알리는 것이 중요하다. 이를 위해 모델에 피드백을 제공할 수 있다. 예를 들어 AI 모델을 사용해 텍스트를 생성하는 경우 모델에 원하는 텍스트와 원하지 않는 텍스트를 지정하여 피드백을 제공할 수 있다. 이렇게 하면 모델이 사용자가 찾고 있는 것을 학습하는 데 도움이 된다.

댓글 0