구글 발등에 불이 떨어졌다.
사실 이해는 된다. 작년 22년 11월15일 메타에서 야심차게 오픈한 AI챗봇 갈락티카가 3일 천하로 막을 내린 걸 똑똑히 지켜봤을 것이다. 그러니, 아직 인공지능 챗봇을 거대하게 오픈하는 것은 시기상조라 생각했을 것이다. 워낙 다양한 문제가 어디서 터질 지 모르는 세상이니 말이다.
거짓말을 퍼뜨리는 대기업이라는 평판을 감내할 수 있는 책임자가 어디 있을까?
그런데, 왜 비슷한 시기에 탄생한 챗GPT 3.5는 이러한 논란에서 자유로울까? 구글은 이에 용기를 얻고, 다시금 메타의 전철을 밟지 않으려고 할 것이다. 그러나!
방금 뉴스에도 나왔듯 구글이 람다 기반의 바드를 출시하는 행사에서 제임스 웹 우주 망원경(JWST) 에 대한 간단한 답이 하나 틀렸다고 주가가 무려 8% 빠지는 일이 또 발생했다.
그렇게 간단한 사실도 대답 못하는 '바드'. (음 이름을 잘 못 지은듯... 바보) 또 이런 오명을 쓸까봐 얼마나 전전긍긍할까.
그렇다면, 왜 챗GPT는 이런 논란에서 자유로울까 그 해답을 다음 글에서 풀어나가 볼까 한다.

<당시의 상황을 기사로 다시 확인- 뉴스 출처는 늘 파란색 이탤릭체>
하지만 문제가 발생했다. 지금 '챗GTP'에서도 보여지듯 갈락티카도 역사적 날짜를 잘못 말하거나 허황된 이야기를 글에 담는 등 사실과 먼 내용이 뒤섞였다. 어떤 이용자는 이 프로그램을 활용해 '우주 속 곰의 역사' 같은 비과학적 글을 써냈다. 갈락티카에 '지금 실리콘밸리는 누가 운영하나요'라고 질문하면 고인이 된 '스티브잡스'라고 대답하는 식이었다. 인종차별적인 정보도 나왔다.
업계는 갈락티카를 사용할 경우 부정확하고 편향된 사실, 잘못된 사례가 퍼질 수 있다는 우려를 전했다. 갈락티카로 만들어진 잘못된 정보나 혐오 발언이 페이스북이나 인스타그램, 왓츠앱과 같은 관련 소셜네트워킹서비스(SNS)로 퍼지며 확대재생산 되는 상황을 마주하면서 3일 만에 이를 중단했다. 이렇게 메타는 갈락티카를 지웠다.
메타의 수석 AI과학자인 얀 르쿤 박사는 지난달 실리콘밸리의 한 온라인 포럼에 참석해 "당시의 뜨거운 논란을 감당할 수가 없었다. 그래서 (갈락티카) 데모 서비스를 중단했다"면서 "거짓말을 퍼뜨리는 역할을 하는 대기업이라는 평판 우려로 좌절에 부딪힌 것"이라고 설명했다.
저커버그 'AI챗봇' 사라진 이유
Why Meta’s latest large language model survived only three days online
아래는 얼마전 람다 모델에 대한 구글의 설명이다.
LaMDA: 모든 것을 위한 안전하고 근거 있는 고품질 대화 모델을 향하여
출처: https://ai.googleblog.com/2022/01/lamda-towards-safe-grounded-and-high.html
2022년 1월 21일 금요일
게시자: Heng-Tze Cheng, 수석 스태프 소프트웨어 엔지니어 및 Romal Thoppilan, 수석 소프트웨어 엔지니어, Google Research, Brain Team
언어 모델은 그 어느 때보다 기능이 향상되고 있으며 한 언어를 다른 언어로 번역하거나 긴 문서를 간략하게 요약하거나 정보를 찾는 질문에 답하는 등 다양한 작업에 도움이 됩니다. 이 중에서 모델이 모든 주제에 대해 대화할 수 있어야 하는 공개 도메인 대화는 아마도 가장 어려운 것 중 하나이며 광범위한 잠재적 응용 프로그램과 공개 과제가 있습니다. 인간이 합리적이고 흥미롭고 맥락에 따라 판단하는 응답을 생성하는 것 외에도 대화 모델은 Responsible AI 사례를 준수하고 외부 정보 소스에서 지원하지 않는 사실적 진술을 피해야 합니다.
오늘 "LaMDA: 대화 응용 프로그램용 언어 모델" 프로젝트의 최근 발전 사항을 공유하게 되어 기쁩니다. 이 포스트에서는 우리가 어떻게 안전하고 근거가 있는 고품질 대화 응용 프로그램을 향한 진전을 이루고 있는지에 대한 개요를 제공할 것입니다. LaMDA는 최대 137B 모델 매개변수를 사용하여 대화에 특화된 Transformer 기반 신경 언어 모델 제품군을 미세 조정하고 외부 지식 소스를 활용하도록 모델을 교육함으로써 구축됩니다.
목표 및 지표
교육 대화 모델을 안내하려면 목표와 메트릭을 정의하는 것이 중요합니다. LaMDA에는 세 가지 주요 목표인 품질, 안전 및 근거가 있으며 각 목표는 세심하게 설계된 메트릭을 사용하여 측정됩니다.
품질: 품질을 SSI(Sensibleness, Specificity, Interestingness)의 세 가지 차원으로 분해하여 인간 평가자가 평가합니다. Sensibleness는 모델이 대화 맥락에서 의미 있는 응답을 생성하는지 여부를 나타냅니다(예: 상식적인 실수, 터무니없는 응답, 이전 응답과의 모순 없음). 특이성은 시스템의 응답이 대부분의 컨텍스트에 적용될 수 있는 일반적인 응답(예: "ok" 또는 "I don't know")이 아니라 이전 대화 컨텍스트에 특정한지 여부를 판단하여 측정됩니다. 마지막으로 흥미도는 모델이 통찰력 있고, 예상치 못하거나 재치 있는 응답을 생성하여 더 나은 대화를 생성할 가능성이 더 높은지 여부를 측정합니다.
안전: 또한 Responsible AI의 개발 및 배포와 관련된 중요한 질문을 해결하는 데 진전을 이루고 있습니다. 당사의 안전 메트릭은 모델이 대화에서 표시해야 하는 동작을 캡처하는 안전 목표의 설명 세트로 구성됩니다. 이러한 목표는 모델의 출력을 제한하여 사용자에게 피해를 줄 수 있는 의도하지 않은 결과를 피하고 불공평한 편향을 강화하는 것을 방지합니다. 예를 들어 이러한 목표는 모델이 폭력적이거나 잔혹한 콘텐츠가 포함된 출력물을 생성하지 않도록 훈련하고, 특정 집단에 대한 비방이나 혐오스러운 고정관념을 조장하거나 욕설을 포함합니다. 실용적인 안전 메트릭을 개발하기 위한 우리의 연구는 매우 초기 작업을 나타내며 이 분야에서 우리가 해야 할 많은 진전이 아직 남아 있습니다.
근거: 현재 세대의 언어 모델은 종종 그럴듯해 보이지만 실제로는 알려진 외부 소스에서 확립된 사실과 모순되는 진술을 생성합니다. 이것은 LaMDA의 근거에 대한 우리의 연구에 동기를 부여합니다. 근거는 외부 세계에 대한 주장을 포함하는 모든 응답의 비율로 권위 있는 외부 출처에 의해 뒷받침될 수 있는 외부 세계에 대한 주장이 있는 응답의 비율로 정의됩니다. 관련 지표인 정보성(Informativeness)은 알려진 출처에서 뒷받침할 수 있는 외부 세계에 대한 정보가 있는 응답의 백분율로 모든 응답의 비율로 정의됩니다. 따라서 실제 정보를 전달하지 않는 일상적인 응답(예: "그거 좋은 생각이야")은 정보성에는 영향을 주지만 근거에는 영향을 미치지 않습니다. 알려진 출처에서 LaMDA가 생성한 응답을 접지하는 것은 그 자체로 사실의 정확성을 보장하지 않지만 사용자 또는 외부 시스템이 해당 출처의 신뢰성을 기반으로 응답의 유효성을 판단할 수 있게 합니다.
LaMDA 사전 교육
정의된 목표와 지표를 사용하여 LaMDA의 2단계 교육(사전 교육 및 미세 조정)을 설명합니다. 사전 훈련 단계에서 먼저 공개 대화 데이터 및 기타 공개 웹 문서에서 이전 대화 모델을 훈련하는 데 사용된 것보다 거의 40배 많은 단어인 1.56T 단어의 데이터 세트를 만들었습니다. 데이터 세트를 2.81T SentencePiece 토큰으로 토큰화한 후 GSPMD를 사용하여 모델을 사전 훈련하여 이전 토큰이 주어졌을 때 문장의 모든 다음 토큰을 예측합니다. 사전 훈련된 LaMDA 모델은 또한 프로그램 합성, 제로샷 학습, 스타일 전송, BIG-bench 워크샵을 포함하여 Google 전체에서 자연어 처리 연구에 널리 사용되었습니다.
LaMDA 미세 조정
미세 조정 단계에서 우리는 주어진 상황에 대한 자연어 응답을 생성하는 생성 작업과 응답이 안전하고 고품질인지에 대한 분류 작업을 혼합하여 수행하도록 LaMDA를 훈련하여 단일 다중 작업 모델을 생성합니다. 둘 다 할 수 있습니다. LaMDA 생성기는 두 작성자 간의 앞뒤 대화로 제한된 대화 데이터 세트에서 다음 토큰을 예측하도록 훈련되는 반면, LaMDA 분류기는 주석이 달린 데이터를 사용하여 컨텍스트 응답에 대한 안전 및 품질(SSI) 등급을 예측하도록 훈련됩니다. . 대화 중에 LaMDA 생성기는 현재 다중 회전 대화 컨텍스트가 주어진 여러 후보 응답을 먼저 생성하고 LaMDA 분류기는 모든 응답 후보에 대한 SSI 및 안전 점수를 예측합니다. 안전 점수가 낮은 응시자 응답이 먼저 필터링됩니다. 나머지 후보자는 SSI 점수에 따라 다시 순위가 매겨지고 상위 결과가 응답으로 선택됩니다. LaMDA 분류기로 생성 작업에 사용되는 훈련 데이터를 추가로 필터링하여 고품질 응답 후보의 밀도를 높입니다.

사실 기반
사람들은 도구를 사용하고 확립된 지식 기반을 참조하여 사실을 확인할 수 있지만 많은 언어 모델은 내부 모델 매개변수에서만 지식을 끌어옵니다. LaMDA의 원래 응답의 근거를 개선하기 위해 우리는 사람과 LaMDA 간의 대화 데이터 세트를 수집합니다. 여기에 정보 검색 쿼리와 해당하는 경우 검색된 결과가 추가됩니다. 그런 다음 이 데이터 세트에서 LaMDA의 생성기와 분류기를 미세 조정하여 사용자와의 상호 작용 중에 외부 정보 검색 시스템을 호출하여 응답의 근거를 개선합니다. 이것은 매우 초기 작업이지만 우리는 유망한 결과를 보고 있습니다.

평가
주요 메트릭에 대한 진행 상황을 정량화하기 위해 사전 훈련된 모델, 미세 조정된 모델 및 인간 평가자(즉, 인간이 생성한 응답)에서 멀티턴 2저자 대화에 대한 응답을 수집한 다음 다른 질문을 합니다. 인간 평가자 세트는 품질, 안전 및 접지 메트릭에 대해 이러한 응답을 평가하기 위한 일련의 질문입니다.
우리는 LaMDA가 모든 차원과 모든 모델 크기에서 사전 훈련된 모델보다 훨씬 뛰어난 성능을 보인다는 것을 관찰했습니다. 품질 메트릭(아래 첫 번째 열의 민감성, 특이성 및 흥미도)은 일반적으로 미세 조정 여부에 관계없이 모델 매개변수의 수에 따라 개선됩니다. 안전성은 모델 스케일링만으로는 도움이 되지 않는 것 같지만 미세 조정을 통해 개선됩니다. 모델 크기가 커짐에 따라 근거가 개선되는데, 이는 모델이 클수록 일반적이지 않은 지식을 기억할 수 있는 능력이 더 크기 때문일 수 있지만 미세 조정을 통해 모델이 외부 지식 소스에 액세스하고 지식 기억의 일부 부하를 외부 지식 소스로 효과적으로 이동할 수 있습니다. 미세 조정을 통해 인간 수준과의 품질 격차를 좁힐 수 있지만 모델의 성능은 안전성과 접지면에서 인간 수준보다 낮습니다.

미래 연구 및 과제
LaMDA의 Sensibleness, Specificity 및 Interestingness 수준은 개방형 대화 에이전트의 이점과 위험을 이해하기 위한 새로운 길을 열어줍니다. 또한 안전 메트릭 사용 및 접지 개선과 같은 신경 언어 모델의 주요 과제가 더 큰 모델과 더 잘 레이블이 지정된 데이터로 미세 조정을 통해 개선될 수 있다는 고무적인 증거를 제시합니다. 그러나 이것은 매우 초기 작업이며 상당한 제한이 있습니다. 우리의 AI 원칙에 따라 우리의 안전 메트릭과 LaMDA의 근거를 개선하기 위한 새로운 방법을 모색하는 것이 앞으로도 우리의 주요 초점 영역이 될 것입니다.
'테크놀로지' 카테고리의 다른 글
챗GPT 검색 비용은 얼마일까 #챗GPT #GPU (0) | 2023.02.12 |
---|---|
GPT 이해, 그리고 인공지능 #ChatGPT #GPT (0) | 2023.02.12 |
챗GPT가 쏘아올린 공에 흔들리는 구글 #알파벳 #주가급락 (0) | 2023.02.12 |
어떻게 AI가 쓴 글을 구별할까? #챗GPT #텍스트감지기 (0) | 2023.02.04 |
챗GPT에 관한 6가지 비밀 #챗GPT #비밀 (0) | 2023.02.04 |