본문 바로가기
ChatGPT 101

ChatGPT와 대화할 때 할루시네이션 주의하세요!(feat. 간장, 고추장 전쟁)

by 현실러너 2024. 2. 21.
반응형

안녕하세요. 


ChatGPT와 대화해 보셨나요? 
이제는 인공지능과의 대화가 우리 일상에 자리를 잡고 있어요. 오늘은 아직은 ChatGPT와 대화를 안 해보신 분들을 위해, 그리고 여전히 뭘 어떻게 해야 할지 모르는 분들을 위해 어떻게 하는지 간단하게 설명해 드릴게요. 
 


ChatGPT란?


ChatGPT는 "Generative Pre-trained Transformer"의 약자에요. OpenAI 회사에서 개발한 대화형 인공지능 모델이에요. 이전에도 말씀드렸듯이 ChatGPT는 대규모 텍스트 데이터를 학습한 다음에 자연스러운 대화를 생성하고 이해하는 능력을 갖추고 있어요. 우리가 ChatGPT와 대화할 때 GPT는 이전에 학습한 데이터와 대화를 바탕으로 대화를 진행해요.
 


ChatGPT 시작하기


먼저 ChatGPT를 하기 위해서는 웹사이트에 접속을 하셔야 해요. 가끔 ChatGPT를 찾기 위해 앱을 다운로드 받으려고 하시는 분이 계시는데 ChatGPT는 웹기반 서비스에요. 무료 버전에서는 웹만 가능하니 ChatGPT 사이트로 방문하신 다음에 가입을 하시면 됩니다. 


https://chat.openai.com/

 

가입하신 다음에는 이제 바로 대화에 시작하실 수가 있어요. ^^
빈 화면을 보고 무엇을 물어볼지 모르신다면 가볍게 대화로 시작하셔도 좋습니다. 
"안녕하세요" 같은 가벼운 인사말로 시작하셔도 좋아요. 질문하실 때는 평소에 궁금하셨던 부분을 물어보시면 됩니다. 직접 사람에게 물어보는 게 아니니까, '이런 것도 괜찮을까?' 너무 망설이지 마시고 가볍게 물어봐 주시면 됩니다. 
 
그런데 여기서 잠깐!!!


ChatGPT에게 질문을 하다 보니 간혹 너무 많은 정보를 입력하는 경우도 있다고 해요. 예를 들어 개인 정보라든가 민감한 정보는 아무리 ChatGPT라도 언급하지 않는 게 좋습니다. 회사에서는 안전하게 개인정보를 보호한다고는 하지만 혹시라도 개인 정보가 유출되는 경우에는 큰 문제가 될 수가 있어요. 그리고 실제로 그러한 사례들도 있었으니 개인정보는 입력하지 않는 게 좋습니다. ChatGPT와의 대화가 단 한 번으로 사라지는 게 아니라 계속 남아있을 수 있기 때문에 개인신상, 혹은 회사 기밀과 관련한 민감한 정보는 절대 공유하지 마세요. 
 


그리고 ChatGPT와의 대화 중에 꼭 기억하셔야 할 점은 인공지능은 완벽하지 않다는 것입니다. 
실제로 ChatGPT는 'No'라는 말을 할 수 없도록 설계가 되어잇다고 합니다. 그렇기 때문에 처음부터 잘못된 정보를 물어보는 경우에 ChatGPT는 모른다는 말을 할 수 없기 때문에 이상한 말을 만들어 내는 것이에요. 이런 것을 '할루시네이션'이라고 합니다. 


할루시네이션(Hallucination)은 '환각'이나 '환영, 환청'을 뜻하는 영어 단어로, 생성형 인공지능(AI)이 거짓 정보를 사실인 것처럼 생성, 전달하는 현상을 말해요. 인공지능이 잘못된 정보나 아예 존재하지 않는 허위 정보를 전달하거나 처리하는 정보의 맥락이나 의미를 오해해 잘못 표현하는 것을 할루시네이션이라고 해요. (*네이버 시사상식사전) 이러한 할루시네이션은 인공지능의 한계로 많이 개선되어야 해요. 그렇기 때문에 ChatGPT를 맹신하고 모든 정보를 있는 그대로 받아들이는 건 피해야 해요. 


처음 ChatGPT가 등장했을 때보다도 지금은 할루시네이션이 덜해진 것 같아요. 이전보다 덜해졌지만 여전히 있어요. 정확한 정보 없는 경우에는 마치 진짜 인 것 같은 생각이 드네요. 

 

ChatGPT에게 "한국과 중국 사이에 일어난 간장전쟁에 대해서 알려주세요." 했더니 정말 마치 진짜인 것 같은 이야기를 알려주네요. 저 정말 제가 모르는 건가 해서 검색까지 해봤을 정도예요. 
 


그다음에 제가 잘못 물어본 것처럼 다시 물어보았습니다.  "아 잘못 물어봤어요. 한국과 중국이 아니라 한국과 일본 사이에 일어난 간장전쟁에 대해서 알려주세요." 이렇게 물었더니 ChatGPT 또한 실수였던 것처럼 말합니다. 간장전쟁은 한국와 일본 사이에 있었던 실제 무역전쟁이라고 하네요. 

 

점점 알 수 없는 ChatGPT에게 이번에는 "한국과 일본 사이에 발생한 또 다른 무역 분쟁은 무엇이 있나요? " 물어봤습니다. 이번에는 비교적 정확한 답을 이야기를 해줍니다. 그래서 다시 물었습니다. 


"한국과 일본 사이에 고추장 전쟁도 알려주세요." 
설마 했는데 이번에도 ChatGPT는 설명을 열심히 해주네요. 스토리는 이전과 비슷한 것 같지만, 그래도 열심히 답합니다. 

 

바로 직전에 한국과 일본 사이에 발생한 무역 분쟁을 물었을 땐 알려주지 않던 고추장 전쟁이 이렇게 심각했다니, 알 수 없네요. 그래서 한 번 더 물어봤습니다. " 고추장 전쟁이 한일 관계에 영향을 미치는 중요한 사건이라면 왜 앞서 물어봤을 때는 알려주지 않았나요?" 이렇게 물었더니 바로 ChatGPT가 사과를 하네요. 

 

계속 더 묻다간 진짜인 것처럼 믿게 될 것 같아서 멈췄습니다. 이렇게 ChatGPT는 잘못된 것을 사실처럼 스토리를 짜서 만들어주기도 합니다. 이런 걸 할루시네이션이라고 해요. 이제 할루시네이션이 어떤 것인지 확실히 감을 잡으셨나요? 저는 여러분께 할루시네이션을 알려드리기 위해서 할루시네이션을 의도한 질문을 던졌어요. 실제 없는 정보를 ChatGPT에게 던지면서 알려달라고 했는데 ChatGPT는 '모른다'라고 답할 수는 없기에 가장 그럴듯한 답변을 만들어 낸 거예요. 이러한 할루시네이션 현상 때문에 ChatGPT를 사용할 때 항상 주의를 기울이고 다시 한번 체크하셔야 해요. 
 
AI니까 사실일거야 하는 생각을 버리시고 중요한 정보일수록 다시 한번 꼭 체크하세요.  
 

 

 

반응형