AI ChatGPT원리와 활용방안
배경
기술-> 사회-> 사람
-
기술->사회->사람의 순서로 기술이 사회에 영향을, 사회가 사람에 영향을 주게되었다.
-
예시
- 증기기관 -> 기계화 혁명-> 사람의 노동 감소
- 전기 -> 대량생산 혁명 -> 풍족한 물건
- 컴퓨터와 인터넷 -> 정보화 혁명 -> 손쉬운 정보의 생산과 공유
- 인공지능 -> 지능화 혁명 -> 필요한 일을 스스로 찾아서 하는 기술
가속도가 붙는 기술의 발전
5000만 사용자를 모으는 데에 걸린 시간을 보면
- 비행기: 68년
- 자동차: 62년
- 신용카드: 28년
- TV: 22년
- 아이팟: 4년
- 페이스북: 3년
- 트위터 2년
기술이 점점 빠른 시간안에 사용자를 모으고 있다.
chatGPT는 2개월 미만
에 모았다.
ChatGPT
- 2022년 11월 30일에 공개되어
- 5일만에 100만
- 40일만 1000만
- 2달만에 MAU 1억명을 달성했다.(Tictok은 9개월)
흥행의 이유
-
누구나 무료로 쉽게 사용가능하다.
- 일반인도 단순 질의로 답변을 받을 수 있다.
- 알파고, AI 스피커, AI 챗봇 보다 높은 접근성
-
기존 AI서비스 대비 강력한 성능
- 대화형 질의에 대한 자연스러운 답변
- 광범위한 부분에서 강력한 성능
- 논문
- 프로그래밍
- 언여 번역, 교정
- 문장요약
- 문장 감정 분석
- 다양한 컨텐츠를 창의적으로 제작
원리
정의
- Chat + GPT
- Chat: 챗봇 서비스
- GPT(Generative Pre-trained Transformer): 사전 학습된 생성 변환기
-
GPT:
- OpenAI가 만든 대형 언어 모델(LLM, Large Language Model)
- 굉장히 큰 언어모델이다.
-
OpenAI가 만들긴했지만 대부분의 지원을 MS에서 했다.
- 기본적으로 Transformer가 있는데, 입력을 넣어서 원하는 출력을 만들기 위해서 신경망이라는 파라미터를 넣어서 만든다.
-
여러가지 기능을 넣어서 만들었고, Nx의 의미는 이러한 계층을 N번 쌓는데, 12번 이상까지도 쌓는다.
- Transformer를 왼쪽에 encoder에 넣는데, 파라미터를 넣었을때, Input 값에 랜덤하게
MASK
로 빈칸을 넣어서 올바른 문장이 출력되도록 하는 신경망이 구성되어있다.
LM, 언어 모델이란?
-
정의
- 문장이 얼마나 자연스러운지 확률적으로 계산해서
- 문장 내 특정 위치에 나오기 적합한 단어를 예측하는 모델
-
예시
- Can you please come
here
? - 4개의 Can, you, please, come을 보고
here
라는 단어가 가장 적합하다고 예측한다.
- Can you please come
-
확률적으로 하기때문에 과거 데이터가 중요한 역할을 하게된다.
-
학습
- 특정 단어 뒤에 나올 단어를 예측하게끔한다.
- Can you -> AI -> 출력-1 (please)
- Can you please -> AI -> 출력-2(come)
- Can you please come -> AI -> 출력-3(here)
- 정확도 높은 데이터가 많을수록 AI의 예측 정확도가 상승한다.
- 확장: 이전단어 -> 다음단어, 이전 구절 -> 다음구절, 질문 -> 답변, 빈칸채우, 키워드 자동완성, 챗봇 등
- 이렇게 많은 데이터를 넣으면 단어 단위가 아닌, 큰 단위로 모델을 만들 수 있다.
LLM 대규모 언어 모델
- 전통적인 확률 테이블로 만들면 문제가 있다.
- 확률의 문제이기도 하고, 방대한 데이터 내에서 미묘한 변화를 캐치하기가 어려웠다.
- 그래서 대규모로 하게하기위해서 신경망 기반 언어모델이 생겼다.
신경망 기반 언어모델
- input으로 단어를 넣고, output layer에서 원하는 단어가 나올때 확률값, 중앙의 단어를 앞 뒤 단어로 추정하는 등 가능성이 있다.
- transformer로 학습을 하면서 masked learning이 생겼다.
자가학습(masked learning)
- 인공지능에서 학습하는 방법이 지도, 비지도, 강화학습이 있는데, 자가학습은 최근에 생긴것.
- 단어들 사이 연관관계를 모델화한다. 입력 중간중간을 masked해서 비워두고 올바른 출력을 유도한다.
ChatGPT의 학습 원리
- ChatGPT는 2 단계로 학습이 이루어졌다.
- 학습: 많은 양의 데이터 입력으로 올바른 출력을 결정하는 파라미터를 결정
1. 사전학습
- Large corpus를 통한 학습
비지도학습
에 의한 언어모델링- 특정 문장에 대한 답을 유추하는 것이 아니라, 원본 문장을 스스로 마스킹하기때문
- 원본 텍스트를 마스킹하고, 예측된 텍스트를 기반으로 원본과 비교해 Loss가 최소가되게끔 학습
- 2021년 이전 데이터만 있다.
- 다양한(웹, 책, 논문)
- 대용량(45TB)
2. 미세조정
- 라벨링된 데이터를 통해 정답을 유추한다.
- 프롬프트 샘플링과 40명이 작성한 정답기반
지도학습
- 그리고 학습된
보상 모델
의 응답기반강화학습
- 4 ~9 개 중 응답 중에서 사람이 응답의 선호도를 보상함수로서 작동하게한다.
ChatGPT 학습 변천사
-
Open AI GPT-3
- 2020년 5월
-
Instruct GPT
- 2020년 5월
- 인간의 피드백을 통한 강화학습 적용
- 기능 향상 및 사용자 의도파악
-
Chat GPT
- Instruct GPT가 사람에 유해한 것도 학습하기때문에 이를 개선
- 무해성을 개선하며 유해성과 무해성간 trade-off를 관리한다.
InstructGPT
인간의 피드백
을 통한 강화학습 적용 목표
- 설명 데이터(
demonstration data
) 수집하고,사람이 policy를 정해서 원하는 동작
을 구현한다. comparison data
를 수집하고, 보상모델을 학습해 사람이선호하는 출력을 예측
하는 모델을 만든다.- PPO알고리즘(지도 정책의 미세조정)기반으로
보상 모델 원칙을 최적화
한다.
ChatGPT
- 유해성 완화가 목표
-
크라우드 워커(사람)를 통한 유해 응답 탐색 및 해당 응답 정정
- 유해한 질문에 대해서 유해한 응답이 나오면 사람이 직접 1. 스스로 비평하고 2. 수정요청 을 통해 응답을 정정한다.
-
유용성에 대한 사람과 인공지능 모델에 대한 trade-off관리
- 질문에 대한 응답을 받을때,
CHAIN-OF-THOUGHT
를 사용했다. - A라는 질문이 있다면, 응답을 세세하게 나누어
- A-B(a)
- A-B(a)-B(b)
- A-B(a)-B(b)-B(c)
- 이렇게 중간 답변을 input으로 넣어가면서 맥락을 관리하게했다.
- 질문에 대한 응답을 받을때,
품질관리
- 결국 품질관리를 위해 사람의 역할이 절대적으로 중요하다.
- 리뷰어의 피드백에 따른 미세조정된 데이터와 사전학습된 모델간 trade-off를 사람이 결정해서 만들어졌다.
응용사례
- 지식 검색 및 요약
- 스토리 생성
- 자동 코딩
비용
- 미세조정 위한 데이터생성 비용
- 사람에 의한 질문 혹은 응답 생성
- 선호도 평가비용
- 대규모 병렬학습
- 클라우드 컴퓨팅 기반
- 1만개의 Nvidia GPU로 수주간 학습이 필요하다.
- 1회 학습: 지구<->달 왕복 차량 주행 만큼의 이산화탄소 배
- 응답생성 비용 - 1억명 2개월만에 달성 - 30단어당 생성 비용 약 1.5원
한계
-
기능적
- hallucination으로 답변 정보가 모두 정확한것이 아님.
- 2021년이전데이터기때문에 최신내용은 불가능
- 답을 찾는 것이 아닌, 답을 생성하는 형태로 오답생성
-
윤리적
- 사람의 개입은 강점이자 취약점
- 인간 피드백으로 인해 유해, 편향답변최소화하나, 불완전
-
비용적
- 운용 관리에 많은 비용이 지속적 소요됨
-
환경적
- 학습, 운용에 온실가스 배출
전망
노동의 미래
- AI를 잘하는 사람은 기회, 못하는 사람은 위기
- AI가 보조
- 접객, 영업, 교육, 기획, 집필 업무
- AI가 확장
- 고도의 전문, 예측분석 업무
- AI를 보조
- 데이터 입력, 전화응답, 운전, 운반
- AI로 사라지는 업무
- 주문, 회계, 감시업무
- AI가 보조
공공의 미래
- 행정효율성
- 국민 편의 증진
- 업무 활용시 주의사항
- 정량 답이 필요한 업무에는 부적절
- 최종 결과물 확인이 필요
- 업무에 맞는 서비스 취사선택해야함
언어처리 인공지능 발전
-
Transformer(2017)
- 어센션모델을 사용해 병렬 학습에 유리
-
GPT-1(2018)
- 질문에 어울리는 답변생성, 파라미터 1억개
-
GPT-2(2019)
- 15억개 파라미터로 다양한 스타일, 어조의 답변
-
GPT-3(2020.5)
- 1750억개 파라미터, 다양한 자연어처리
-
Codex(2021)
- 60억 파라미터, 프로그래밍언어중심
-
InstructGPT(2022.1)
- 보상모델을 통한 강화학습 적용, 사람의 피드백 존중
-
GPT-3.5(22.11.28)
- 향상된 모델의 별칭
-
ChatGPT(22.11.30)
- 대화에 특화된 GPT 모델
-
GPT-4(23.3.14)
GPT4의특징
- Creativity
- 창의적, 기술적 글쓰기 작업가능
- Visual Input(multi-modal 프로세싱)
- 이미지 입력받아 캡션, 분류가능
-
Longer Context
- 입력 컨텍스트가 길어짐.
- 고급 추론 능력
- 시험통과
- 변호사시험
- 생물 올림피아드
- SAT
결론
- 거대언어모델
- 소형화, 전문화
- 외부 DB를 통한 최신자료접근
- 신뢰성 확보
-
데이터베이스, 클라우드, 통신, 반도체 등 관련 기술 개발 필요
-
질문을 잘해야함
질문요령
- 초안작성에 유리
뚜렷하고, 간결하게
시작해야한다.- 질의응답의 목적과 초점을 정의하라.
- 구체적인 내용을 prompt에 줄 것
- 예시를 보여줘야함
- 항상 내용을 보고 자세히 읽고 체크
- 영어로 입력한 것을 출력받아 번역하는게 더 좋은 내용
- 인터랙티브하게 활용
- 차별화된 내용을 추가한다.
- 단, 정확한 값은 기대하면 안된다.
- 정확한 내용이 필요한 글은 내용이 정확해야하는 부분을 반드시 더블체크한다.
- 언어 사용 문화, 법적인 부분은 최신데이터가 없기에 학습이 부족하다.
- 최신지식은 물어보면 안된다.
댓글남기기