관리자 패널에서 메뉴를 설정하세요

[마소캠퍼스 마켓트렌드] 거대 언어 모델 성능 최대화를 위한 연구 | openai

더 지능적으로 인공지능 쓰는 법

이 영상에서는 OpenAI 첫 개발자 컨퍼런스에서 LLM(대규모 언어 모델)의 성능을 극대화하기 위해 사용할 수 있는 다양한 기술들에 대해 논의합니다. 발표자는 자기소개와 함께 OpenAI에서의 Fine-tuning 제품 팀 엔지니어링 리드로서 최근 몇 달간의 Fine-tuning 진전에 대해 이야기합니다. Fine-tuning과 관련된 기능 강화, 연속적 Fine-tuning의 도입, 플랫폼 내의 UI 출시 등 다양한 업데이트가 있었습니다. 이 세션에서는 LLM을 사용하여 가장 중요한 문제를 해결할 때 성능을 최적화하는 방법에 대해 구체적으로 다룹니다. 예를 들어, 프롬프트 엔지니어링, 검색 증강 생성(Retrieval-Augmented Generation, RAG), Fine-tuning과 같은 기술이 소개되며, 이를 통해 모델이 특정 지식 베이스를 기반으로 답변을 하도록 제한함으로써 ‘환각’을 줄이는 방법도 설명합니다. 또한, 효과적인 프롬프트 작성 방법, 모델에 새로운 지식을 추가하는 것이 아닌 기존 지식을 활용하여 문제를 해결하는 방법 등이 소개됩니다. Fine-tuning은 기본 모델을 특정 데이터 세트에 맞게 조정하는 변혁적인 과정으로서, 보다 비용 효율적이고 빠른 반응을 가능하게 합니다. 발표의 마지막 부분에서는 실제 사례 연구와 함께 Fine-tuning의 실제 적용 방법에 대해 논의합니다.

 

챗 GPT의 작동방식이 궁금하다면?

마소캠퍼스 강의에서 확인하기

프롬프트 엔지니어링 고급 활용법 강의 보러가기>>

관련 영상 확인하기

 


원문 URL : https://www.youtube.com/watch?v=ahnGLM-RC1Y
원문 제목 : A Survey of Techniques for Maximizing LLM Performance

2023/11/17

머니매그넷(주) Since 2013
마소캠퍼스 ICT 원격평생교육원
- 온라인|원격평생교육시설 등록번호
: 제 원-119호

마소캠퍼스 DT평생교육원
- 오프라인|지식·인력개발사업 평생교육시설 등록번호
: 제 지-137호

강남캠퍼스: 서울시 서초구 강남대로 53길 8, 10-31호(서초동, 스타크 강남빌딩) 10-31, Gangnamdae-ro 53Gil 8, Seocho-gu, Seoul (06621)
송도교육연구원: 인천광역시 연수구 송도과학로 32 송도테크노파크IT센터 S동 2003호, 20F, Technopark IT center, Songdogwahak-ro 32, Yeonsu-gu, Incheon (21984)

전화 02-6080-2022, 팩스 02-6455-2021, 이메일 문의 cs@masocampus.com

사업자정보 264-81-13054
통신판매업번호 2023-서울서초-1812, 대표(개인정보책임자): 김진, 서비스 이용약관, 개인정보 처리방침, 사업자정보확인

마소캠퍼스 웹사이트는 크롬 브라우저에 최적화 되어 있습니다.

©MasoCampus. All rights reserved.