LLM HuggingChat의 Omni (Router) 알아보기 요즘 저는 Hugging Face의 'Omni'를 지켜보고 있습니다. 이것은 또 하나의 단순한 챗봇이 아닙니다. 수많은 오픈소스 AI 모델들 사이에서 사용자의 질문(프롬프트)에 가장 적합한 모델을 자동으로 골라 연결해주는 지능형 라우팅 시스템입니다. Omni는 사용자가 어떤 작업을 원하는지 파악한 뒤, Hugging Face의 방대한 라이브러리에서 번역, 코딩, 요약 등 해당
LLM 메타 프롬프팅 마스터클래스 (Meta Prompting Masterclass) 한국어 번역본 안녕하세요. 글을 작성하는 오늘은 9월 25일입니다. 어제(9월 24일) 래블업의 5번째 컨퍼런스에 다녀왔습니다. 여러 세션 중에서도 최승준님의 [생성형 호기심이 불러일으킨 상상] 발표가 특히 기억에 남았습니다. 이 발표에서 다뤘던 '메타 프롬프팅'이라는 개념을 보다 상세히 다뤄보고자 합니다. 메타 프롬프팅은 생성형 AI의 가능성을 한 단계 더 끌어올릴 이 흥미로운 기법입니다.
LLM Hugging Face Chat Template 정리하기 이전에는 대화형 언어 모델의 챗 템플릿(Chat Template)을 확인하려면 Hugging Face 저장소의 'Files and Versions' 탭에서 tokenizer_config.json 같은 설정 파일을 직접 찾아봐야 했습니다. 모델마다 다른 프롬프트 형식을 적용하기 위해 거쳐야 하는 다소 번거로운 과정이었습니다. 최근 허깅페이스 모델 페이지에 이 챗 템플릿을 바로 확인할 수 있는
LLM Gradio 앱을 MCP(Model Context Protocol) 서버로 실행하기 이 가이드는 Gradio 앱을 MCP(Model Context Protocol) 서버로 실행하는 방법을 안내합니다. 핵심은 .launch()에 mcp_server=True를 넣는 것입니다. 나머지는 Gradio가 자동으로 처리합니다. 참고 문서: https://www.gradio.app/guides/building-mcp-server-with-gradio 시작하기 전에 필요 한 것 아직 Gradio가 설치되어 있지 않다면, 아래 명령어로 MCP 관련 기능까지 한 번에 설치할
LLM 프롬프트 튜닝 Prompt Tuning 살펴보기 Prompt Tuning PEFT(Parameter-Efficient Fine-Tuning)는 적은 수의 파라미터를 학습하는것만으로 모델 전체를 파인튜닝하는 것과 유사한 효과를 누릴 수 있도록 해줍니다. PEFT 방법 중 하나인 Prompt Tuning에 대해서 알아봅시다. 참고 논문: https://arxiv.org/pdf/2104.08691.pdf 프롬프트 튜닝이란? 언어 모델을 특정 작업에 맞게 조정하기 위해 사용되는 기술입니다. 기존의 방식은