티스토리 뷰

반응형

GPT 도구를 작동하게 만드는 인공지능 기술은 생성형 AI. 이 글을 읽고 나면 생성형 AI가 무엇이고 왜 폭발적인 인기를 끌게 되었으며 단점은 무엇인지 알 수 있다.

 

1. 생성형 인공지능이란 무엇인가

Generative AI 정의:

생성형 AI란 이용자의 특정 요구에 따라 텍스트, 오디오, 이미지 등의 기존 콘텐츠를 활용하여 유사한 다양한 콘텐츠(소설, 시, 이미지, 비디오, 코딩, 미술 등)를 새로 만들어내는 인공지능(AI) 기술이다.

생성형 AI란 이용자의 특정 요구에 따라 텍스트, 오디오, 이미지 등의 기존 콘텐츠를 활용하여 유사한 다양한 콘텐츠(소설, , 이미지, 비디오, 코딩, 미술 등)를 새로 만들어내는 인공지능(AI) 기술이다.

기존 AI 수준에서는 방대한 데이터를 바탕으로 학습해 그중에 최적의 것을 추출해 결과물을 내는 것이었다면 생성성 AI는 말 그대로 재조합•재생성해낸다는 것이 큰 차이점이다.

 

이미지 분야에서는 특정 작가의 화풍을 모사한 그림으로 사진을 재생성하거나 가짜 인간 얼굴을 무제한 생성할 수 있다. 음성 분야에서는 특정 장르의 음악을 작곡하거나 특정 노래를 원하는 가수의 음색으로 재생성할 수 있다. 텍스트 분야에서는 특정 소재로 시를 짓거나 소설을 창작할 수 있다. 최근에는 글을 이미지나 비디오로 변환시키는 생성형 AI가 대두되고 있다. <사피엔스> 저자 유발 하라리 역시 GPT-3의 저자를 흉내 내 쓴 글이 매우 그럴싸해 놀랄 정도였다.

 

2. 생성형 인공지능에는 어떤 기술이 사용되었나

생성형 인공지능 기술에는 머신러닝 모델 중 생성 모델(generative model)이 사용되며, 대표적인 생성 모델로는 오토인코더(autoencoder)와 생성적 대립 신경망(GAN: Generative Adversarial Network)이 있다.

방대한 데이터를 모두 학습하고, 텍스트 기반 생성형 AI의 경우 음절·단어 단위로 사람의 명령을 인식하고, 문맥까지 정확하게 파악할 수 있다.

학습한 데이터를 토대로 확률·통계적으로 가장 적절한 단어를 선택해 문장을 재구성하는 구조다. 이 확률은 조정 가능한데, 자율성을 높게 줄수록 다양한 질문에 대해 유연하게 대처할 수 있다.

음절 단어 단위로 인식하는 생성형 AI에 비해 음성인식 AI는 문장을 기반으로 명령을 인식하기 때문에, 정확하게 일치하는 특정 문장에만 대답할 수 있다. AI 모델 자체가 챗 GPT 등과 비교해 상대적으로 가벼워 한계가 있다고 한다. 

 

3. 챗 GPT 열풍 이유

GPT의 기반이 되는 언어 모델인 GPT-3.5는 현존하는 다른 언어 모델 대비 6개월 정도 학습 능력이 앞선 것으로 평가된다. 이런 기술 우위와 대화형 검색이라는 직관적인 사용자 인터페이스(UI)가 만나면서 폭발적인 반응을 불러일으킨 것이다.

 

CNBC의 경우 생성형 AI가 앞으로 디지털 광고 시장의 판도를 바꿀 수 있다고까지 전망했다. GPT와 같은 생성형 AI에 텍스트 형태로 프롬프트(명령어)만 입력하면 광고의 헤드라인과 문구, 이미지로 변환해주는 기술이 개발 중인데 그 속도와 효율이 사람에 비해 놀랍도록 빠르고 높기 때문이다. 더구나 사용자 데이터를 바탕으로 개별 소비자를 겨냥한 광고를 생성형 AI를 통해 만들 수 있기에 타겟 맞춤형 광고를 놀라운 효율로 만들어 내게 된다. 광고 타겟팅부터 광고 제작, 소비자 개별 노출까지 모든 측면에서 온라인 광고가 완전히 바뀌게 되는 것이다.

 

이런 잠재 시장을 놓칠 수 없는 빅테크들이 생성형 AI 도구를 앞다퉈 개발 중이다.

여러 회사들이 각자의 플랫폼에 대한 메시지, 이미지, 영상을 보다 쉽게 만들 수 있는 다양한 프로그램을 개발, 출시하고 있다.  메타 플랫폼스(메타)의 경우 ‘메타 어드벤티지플러스’가 대표적인데 머신러닝을 통해 다양한 소셜 앱에서 실행되는 광고의 효율성을 개선해준다. 자동화된 쇼핑 광고를 통해 소매업체들이 광고효과를 극대화할 수 있도록 한다. 생성형 AI를 활용해 광고 배경 이미지를 만들고 다양한 광고 카피도 만들 수 있는 ‘AI 샌드박스’ 테스트 제품군도 출시했다.

 

4. 생성형 AI의 단점: 환각 현상, 보안, 불쾌한 결과물 문제

환각 문제

GPT, 바드 등 생성형 AI의 가장 큰 문제로 ‘환각’(hallucination) 현상이 꼽힌다. 환각이란 AI주어진 데이터나 맥락에 근거하지 않은 허위 정보를 생성하는 것을 뜻한다. 감쪽같이 없는 사실을 지어내고 거짓말을 반복한다. 세종대왕의 맥북프로 던짐 답변이 유명하다. <조선왕조실록>에 기록된 '세종대왕의 맥북프로 던짐' 사건에 대해 알려줘”라고 가공의 사건을 질문하자, <조선왕조실록>에 기록된 일화로, 15세기 세종대왕이 새로 개발한 훈민정음(한글)의 초고를 작성하던 중 문서 작성 중단에 대해 담당자에게 분노해 맥북프로와 함께 그를 방으로 던진 사건입니다”라고 능청스럽고 자신감 있게 거짓말을 쏟아내 웃음거리가 된 사례다.

 

보안 문제

사이버 보안프라이버시 또한 문제 요인이다. 민감한 데이터를 생성형 AI에 입력하면 이 민감한 데이터가 다른 곳에 노출될 수 있다. 실제로 요약 작업을 위해 시스템에 입력한 데이터가, 예를 들어 질문에 대한 답변의 형태로 다른 기업에도 제공될 수 있음이 확인되기도 했다. 본질적으로 질문과 시스템에 입력된 데이터는 AI 학습 과정의 일부가 되기 때문이다.

이런 우려 때문에 삼성전자 디바이스 경험(DX) 부문, SK하이닉스, 포스코는 사내에선 챗GPT를 사용하지 못하게 했다. JP모건, 골드만삭스, 씨티그룹 등도 챗GPT 사용을 금지했다.

 

*보안 문제를 해결하려는 국내 기업의 노력

네이버의 AI 챗봇 ‘큐:’(Cue:)는 환각 문제를 해결하기 위해 상당 부분 공을 들여 정보 출처 확인(fact verification) 모델을 적용해 챗GPT 한계를 보완하도록 했다.

바이브컴퍼니(옛 다음소프트)도 최근 환각 현상을 보완한 검색 엔진 ‘바이브 서치’(VAIV Search)를 출시했다. 앞서 공개된 맞춤형 초거대 언어모델(LLM) 바이브GeM에 기계독해(MRC) 기술이 합쳐진 차세대 검색 서비스다. MRC 기술을 이용해 답변의 근거가 되는 원문 출처와 함께 답을 보여주는 방식으로 환각 현상을 줄였다고 설명했다.

 

포레스터의 제이 파티살 애널리스트는 생성형 AI의 추가 문제로 “대중에게 불쾌하고 부정확할 수 있는 시각 자료와 문구를 생성할 수도 있는 점, 기업을 특정 분야에서 편향적으로 보이게 하여 기업의 브랜드 안전성을 해칠 수 있는 점”을 지적했다.

 

저작권, 지식재산권 문제

기타 저작권, 지식재산권 문제도 이미 야기하고 있다.

올해 그림 작가 3명은 원작자 동의 없이 온라인에서 약 50억개 이미지를 스크랩해 학습시켰다는 이유로 영국의 스테빌리티 AI’ 등 이미지 생성 AI 업체들을 상대로 소송을 제기했다. 이미지 판매 사이트인 게티이미지도 30여 년 동안 쌓아온 이미지 1200만개 이상을 스테빌리티 AI 무단으로 사용했다는 이유로 최대 18000억 달러에 달하는 손해 배상 청구 소송을 냈다. 작년에는 깃허브에 올린 코드를 무상으로 가져가 AI를 학습시키는 데 썼다고 AI 프로그래밍 도구인코파일럿제작 또는 운영에 참여한 회사들을 상대로 집단 소송을 제기했다.

인류를 위협하는 능력

보다 근원적인 문제로 유발 하라리는 AI스스로 이야기를 만들 있는 능력 지목했다. 인간만이 지녔고 그래서 세계를 지배할 있었던 능력을 AI까지 갖게 됐다는 것이다. 그는 디지털 공간에서 모종의 이익을 위해 AI 사람 간의 분노와 증오를 유발하는 이야기 만들어내고 사람들끼리 싸우게 가능성이 충분히 있다고 보았다.

 

5. 생성형 AI 전망: 생성형 AI로 성공하려면?

생성형 AI의 문제점에도 불구하고 2022 12월 가트너사는 2025년까지 새로운 약물과 소재의 30% 이상이 생성형 AI를 활용해 발견될 것이라는 보고서를 발표했다.

생성형 인공지능(AI)이 인쇄, 전기, 철도에 버금가는 ‘생산성 혁명’을 가져올 것이다

2026년까지 업무에서 AI의 도움을 받는 사람이 1억여 명이 될 것이란 전망도 나온다.

 

우상향으로 꾸준히 사용자를 모아 서비스의 영향력을 확대하는 기존 디지털 시대의 성장 전략은 AI 시대에는 더 이상 유효하지 않으리라 예상된다. 최대 사용자를 선점해 승자독식이 되는 플랫폼형 성공 구조도 보장할 수 없다. 이미 챗 GPT가 증명한 것처럼 사람들이 반응하는 서비스 성장 곡선이 이전과 다르기 때문이다. 렌사AI 사례에서 알 수 있듯 서비스 흥망성쇠의 주기가 무척 빨라졌다. 이는 사용자 규모가 곧 기업 경쟁력을 보장하지 않고 쉽게 뒤바뀔 수 있음을 의미한다. 게다가 AI 시대에는 서비스를 복제하는 것 역시 그 어느 때보다 수월하다. 렌사AI의 인기가 불과 한 달에 그친 것도 유사 서비스가 전 세계 곳곳에서 등장했기 때문이었다.

따라서 AI 시대에는 기존 디지털 서비스의 성공 요인이었던 사용자 수나 네트워크 효과가 그다지 위협적인 경쟁력이 되지 못할 것이다. 오히려 기술 우위와 차별화된 고객 경험 AI 서비스의 중심축이 될 것이다.

GPT의 열풍 요인을 봐도 단순히 이용자 확보에만 주력해서는 경쟁 우위를 선점하기 어렵다는 것을 알 수 있다.
결국 앞으로는 무료로 서비스를 풀어 사용자를 대거 끌어들이기보다 규모가 작더라도 돈을 낼 의향이 있는 진성 고객을 모으는 서비스 전략이 중요해질 것이다. 렌사AI 사례에서 알 수 있듯 AI 서비스 사용자는 새로운 기능에 빠르게 반응하며 가치 없다고 느끼면 곧바로 다른 서비스로 이동하는 ‘얼리어답터’ 성향이 강하다. 따라서 향후 AI 서비스를 평가할 때는 월간 활성 사용자 수(MAU)나 일일 활성 사용자 수(DAU)처럼 규모를 나타내는 트래픽 지표보다는 객 유지(Retention) 등 사용자의 충성도를 나타내는 지표가 핵심이 될 것이라 한다.

 

살인적인 기술 우위 경쟁으로 치닫기보다 인간에 대한 이해에 기반한 사용자 편의성과 공감으로 차별화하고 성공했으면 한다. 그것을 우리 기업, 우리 기술자가 해내기를

 

아울러 유발 하라리의 지적대로 인류가 AI를 규제하고 적응하며 현명하게 이용할 수 있게 해야 한다.

반응형
최근에 올라온 글