728x90
본 내용은 아래 Medium 글을 정리하였습니다.
https://cobusgreyling.medium.com/a-comprehensive-survey-of-large-language-models-llms-946a30d9288e
핵심 내용 정리
- 논문 발표 증가: "대규모 언어 모델"이란 제목이나 초록에 포함된 arXiv 논문의 평균 발표 수가 하루 0.40편에서 8.58편으로 증가
- LLM의 원리: 대규모 언어 모델의 진보와 영향에도 불구하고, 그 기본 원리는 아직 잘 탐구되지 않음
- 오픈 소스 LLM의 역할: Meta의 기여는 중요하며, 오픈 소스 LLM은 확장, 맞춤화 및 성장의 촉매제 역할
- LLaMA 모델 활용 연구: 많은 연구자들이 LLaMA 모델을 지시 조정(instruction tuning) 또는 지속적인 사전 훈련(continual pre-training)을 통해 확장함
- 프롬프트 엔지니어링 구현 계획 : 최소한의 프롬프트, DECOMP, PS, Faithful CoT, PAL, HuggingGPT, AdaPlanner, TIP, RAP, ChatCoT, ReAct, Reflexion, Tree of Thoughts
LLM의 세 가지 새로운 능력
- 지시 사항 따르기(Instruction Following)
- 단계별 추론(Step-by-Step Reasoning)
LLM Landscape Development
훈련 데이터 출처
- General Data / Specialised Data
결론
대규모 언어 모델의 발전은 자연어 처리에서 중요한 진보를 표시함. 초기 규칙 기반 대화 관리부터 GPT-3와 같은 강력한 신경망의 출현에 이르기까지, 대규모 언어 모델의 서사는 지속적인 개선, 혁신 및 기존 기술 환경으로의 통합이라는 특징을 지님.
728x90
'AI > Ref.News' 카테고리의 다른 글
올해 가장 많이 사용한 AI 도구는 챗GPT...전체 중 60% 차지 (1) | 2023.12.27 |
---|---|
구글의 새로운 AI 모델 '제미나이 프로', 기대에 못 미치는 성능? (0) | 2023.12.21 |
인간의 지능을 넘은 초지능(Superintelligence) 제어: 오픈AI의 새로운 AGI 감독 방법론 공개 (1) | 2023.12.18 |
Nature's 10 올해를 빛낸 10인의 과학자 중 비인간 1명 ChatGPT (1) | 2023.12.15 |
구글, 'Gemini' 시연 영상 조작 논란! 구글의 계속되는 실수 (0) | 2023.12.14 |