728x90 분류 전체보기109 Meta-Prompting:Enhancing Language Models with Task-Agnostic Scaffolding 논문 리뷰 안녕하세요 Simon 입니다. 오늘 소개해드릴 논문은 Meta-Prompting 기법 에 관련된 내용입니다. 제 논문은 보통 한글 번역 후 중요하게 보고 느낀점을 표시해두고, 따로 제 생각을 밑에 적는 편이니 유의하고 읽어주시면 감사하겠습니다. Abstrack 이 논문은 "Meta-Prompting: Enhancing Language Models with Task-Agnostic Scaffolding"이라는 제목으로, Mirac Suzgun(스탠포드 대학)과 Adam Tauman Kalai(OpenAI)에 의해 작성되었습니다. 본 연구에서는 언어 모델(LM)의 기능을 향상시키기 위한 효과적인 지지 구조 방법인 메타 프롬프팅을 소개합니다. 이 접근 방식은 단일 LM을 다양한 독립적인 LM 쿼리를 관리하고 .. 2024. 2. 8. bitsandbytes 관련 error 해결 --------------------------------------------------------------------------- RuntimeError Traceback (most recent call last) File c:\Users\hyun0\anaconda3\envs\kdb2\lib\site-packages\transformers\utils\import_utils.py:1364, in _LazyModule._get_module(self, module_name) 1363 try: -> 1364 return importlib.import_module("." + module_name, self.__name__) 1365 except Exception as e: File c:\Users\hyun0.. 2024. 2. 7. WIZnet 챗봇 개발일지 - 데이터 정제 과정 안녕하세요, Acorn입니다. 오늘은 챗봇 파인튜닝을 위한 데이터 정제 과정에 대한 심도 있는 분석을 공유하려 합니다. 데이터 정제는 고품질 챗봇 개발의 핵심 요소로, 본 글에서는 이 과정을 체계적으로 접근하는 방법을 탐구합니다. 아래는 제가 기획하면서 만들었던 prototype 설계 과정입니다. 먼저, 고객과 매니저 간의 일상적 대화를 효과적인 학습 데이터셋으로 변환하는 전처리 작업의 중요성을 강조하고자 합니다. 이 과정에서 다양한 전처리 방법론을 모색하고 GPT의 일반화 능력을 활용하여 이를 최적화하는 방안을 모색했습니다. 그래서 간단하게 GPTs를 통해 확인을 해보았습니다. 고객-엔지니어 대화 뭉치만을 입력해도 위와같이 Q,A 데이터 세트로 구분을 해주는 것을 확인했습니다. 그래서 GPT API를 .. 2024. 2. 7. 모두의 연구소 방문 후기 안녕하세요. 저번주 토요일은 저에게 아주 바쁜 하루였습니다. 모두의 연구소에서 네트워킹과 공덕에서의 컨퍼런스 두가지 행사를 진행하였어요. 그중 모두의연구소 네트워킹의 경우 제가 오픈카톡방에서 가볍게 보낸 카톡 한 통에서 시작된 모임입니다...! 다행히 운영진분께서 좋게 봐주시고, 공간대여까지 해주셔서 모두의연구소 강남점에 들릴 기회가 생겼습니다! 다양한 사람들과 모여 제로콜라와 다과를 먹으며 이런저런 이야기를 하는 즐거운 시간을 가졌습니다! 다같이 사진 한컷! GPTs와 TinyML에 대해 가볍게 발표 제가 연구하고 있는 분야인 LLM과 TinyML에 대해 간략하게 세미나를 하고, 관련해서 인사이트를 나누는 시간도 가졌습니다. 같은 프롬프트 엔지니어분이 계셔서 성능개선 프롬프트, 페르소나 관련해서도 이야.. 2024. 1. 31. [Fine-tuning] Llama2 파인튜닝 코드해석 2탄 https://wiz-tech.tistory.com/78에 이어서 진행해보겠습니다. [Fine-tuning] Llama2 파인튜닝 코드해석 import os import torch from datasets import load_dataset from transformers import ( AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig, HfArgumentParser, TrainingArguments, pipeline, logging, ) from peft import LoraConfig, PeftModel from trl import SF wiz-tech.tistory.com 9. 모델 로드부터 저장까지 # Load dataset (you can pr.. 2024. 1. 30. [Fine-tuning] Llama2 파인튜닝 코드해석 OpenLLM leaderboad에 참여하기 위해, 가장 먼저 Llama2 파인튜닝 코드를 분석하면서 이해해보려고합니다. https://colab.research.google.com/drive/1PEQyJO1-f6j0S_XJ8DV50NkpzasXkrzd Fine-tune Llama 2 in Google Colab.ipynb Colaboratory notebook colab.research.google.com 위 코드를 보고 따라서 진행해보았습니다. 1. 파이썬 라이브러리 설치 !pip install -q accelerate==0.21.0 peft==0.4.0 bitsandbytes==0.40.2 transformers==4.31.0 trl==0.4.7 accelerate==0.21.0: Hugging F.. 2024. 1. 30. Retrieval-Augmented Generation for Large Language Models: A Survey 논문 리뷰 안녕하세요 Simon 입니다. 오늘은 RAG 의 서베이 관련 논문이 있어서 가져와봤습니다. RAG 기술이 점점 LLM 의 할루시네이션을 개선하기 위한 기술로 자리를 잡고 있고 이곳저곳에서 도입이 되고있고, 텍스트 뿐만아니라 나중에는 멀티모달의 이미지 리트리버 분야도 분명 대두될거 같다는 생각을 종종하고 있습니다. RAG 기술이라도 잘 알고 설명 할 줄 아는 사람이 되고싶어서 위의 논문을 이해해보려고 합니다. Retrieval-Augmented Generation for Large Language Models: A Survey Large Language Models (LLMs) demonstrate significant capabilities but face challenges such as halluci.. 2024. 1. 30. ChatGPT 의 업데이트 소식 새로운 임베딩 모델 그리고 GPT 업데이트 안녕하세요 Simon 입니다. 오늘은 GPT 의 새로운 업데이트 소식과 유용한 기능의 업데이트 소식을 전달해드리려고 합니다. 새로운 Embedding 모델의 업데이트와 API 의 업데이트 , 그리고 ChatGPT 의 멘션기능까지 OpenAI 가 업데이트를 하였습니다. 지난 1월 4일 부로 기존에 쓰던 임베딩 모델이 없어지고, text-embedding-ada-002를 곧 쭉 쓰고 있었습니다. 파라미터의 변화로 인해서 Embedding() 모델을 선언할떄 디폴트 값이 사라져서 선언이 안되서 모델 이름을 넣어주곤 했는데요. 드디어 Open AI 에서 새로운 임베딩 모델을 가지고 나왔습니다. 그 이름은 text-embedding-3-small, large 입니다. 3탄이란 뜻 같아요. 기존보다 벤치마크 성능이.. 2024. 1. 30. 챗봇 구축 방법론을 생각해보다 챗봇 구축 W5100, W5500, W5100S 과 같이 제품군이 있는 Docs 정보를 토대로 검색증강생성 모델 챗봇을 구축하려고한다. 적용대상 : 실시간 챗봇 우선순위 (1) 포럼 QnA 자동답변기능 (2), 채널톡 자동답변(3) 데이터 : 제품군별 독스 모델이 이해할 수 제품군별 이해하도록 최대한 연관시켜서 재 가공 h/w engineer 가 매달 실제 고객과 상담한 상담내용을 토대로 자체 QnA(faq) 데이터셋 제작 모델 : OpenAI 쓸 예정 모두 (GPT3.5, GPT4) 오픈소스는 성능이 안좋음 , 한국어파인튜닝도 작업해야하는 우려 코드나, 핀맵을 출력하는 경우 token 제한 이슈 적용 방법론: VectorDB all data (Chunk size 고려) ChatGPT - fine-tun.. 2024. 1. 29. Deeplearning Playground 네트워킹 컨퍼런스 후기 딥러닝 플레이그라운드 네트워킹 컨퍼런스 참여 후기 지난 토요일, 공덕 프론트원에서 열린 '딥러닝 플레이그라운드' 네트워킹 컨퍼런스에 참석한 경험은 매우 인상적이었습니다. 이 자리는 최신 딥러닝 트렌드에 대한 깊이 있는 인사이트와 다양한 전문가들과의 소통의 장으로, 저에게 큰 영감을 주었습니다. NURF에 관한 최신 동향에 대한 세션은 새로운 연구 방향과 기술의 미래에 대해 생각해 볼 수 있는 기회였습니다. 컴퓨터비전쪽은 잘 모르는 분야였어서 모르는내용이 99.9%였지만, 비전도 LLM과 엮어서 프롬프트로 3D이미지를 생성해내는 연구가 활발히 이루어지는 것을 확인하였습니다. 이외에도, 네이버에서 LLM(Large Language Models)을 서비스에 어떻게 효과적으로 적용할 수 있는지에 대한 발표도 있.. 2024. 1. 29. LLM 구조를 파이프라인화해서 랭체인을 쓰면될까? 어제 소프트웨어개발자 의 조언대로 카테고리를 확실히 나누고 목표설정에 대한 구체화를 진행하라는 피드백이 있었다. 번뜩 아이디어가 떠올랐고 AI 관점에서 AI 가 다해주겠지라는 막연한 생각과 함께 구조화 파이프라인을 하지 않았다. 그래서 그런지 항상 파운데이션 모델을 만드는것처럼 뭔가 자꾸 데이터를 합쳐서 튜닝을 한다던지 생각만 했었다. PLM 은 당연히 클러스터링이 잘 되지 않는다면 할루시네이션을 반복할 것이다. 1. RAG기반의 챗봇을 Vector DB를 나눠서 카테고리가 입력한 타겟에 대한 답변을 유도할 수 있도록 한다. -> 포럼 자동봇에는 대응이 가능하다. 포럼자체도 카테고리를 입력해야 글을 쓸 수 있으니 그건 개발자와 협의해서 코드를 수정하면 되는 부분 아마 신뢰성은 많이 올라갈 것이다. 2. .. 2024. 1. 24. [Langchain] 처음시작하는 랭체인 - (1) 안녕하세요 Simon 입니다. 오늘부터 랭체인 하나는 정복하자 느낌으로 쭉 글을 올려보려고 합니다. 랭체인의 개요, 기초 부터 천천히 하나씩 올리겠습니다. LangChain 이란? • Langchain 은 LLM 기반의 서비스를 구축하기 위한 다양한 모듈과 기능을 제공하는 프레임워크입니다. • 랭체인의 주요 목적은 대화형 AI 시스템을 구축하고 연구하는 데 있어 유용한 도구를 제공하는 것입니다. LangChain 구조 LangChain 라이브러리: 파이썬과 자바스크립트 라이브러리. 다양한 컴포넌트의 인터페이스 및 통합, 이러한 컴포넌트를 체인과 에이전트로 결합하기 위한 기본 런타임, 그리고 체인과 에이전트의 오프더셀프 구현을 포함합니다. LangChain 템플릿: 다양한 작업을 위한 쉽게 배포 가능한 참.. 2024. 1. 24. Honeybee: Locality-enhanced Projector for Multimodal LLM 논문 리뷰 안녕하세요 Simon 입니다 오늘은 Honeybee 라고 KAKAO Brain 에서 개발한 멀티모달 모델에 관련된 논문을 리뷰하려고 합니다. LLM -> MLLM 에 대한 연구가 확실히 활발하게 이루어지고 있는 듯 합니다. HoneyBEE 카카오브레인이 새로운 인공지능 모델 '허니비(Honeybee)'를 발표, 이미지와 텍스트 입력이 가능한 기능을 갖춤. '허니비'는 이미지와 텍스트를 이해하고 답변하는 능력이 있으며, MME 벤치마크에서 높은 점수를 획득. 카카오브레인은 허니비를 교육 및 학습 보조 도구로 활용할 계획이며, 지속적인 연구와 개발을 진행할 예정임. Honeybee: Locality-enhanced Projector for Multimodal LLM In Multimodal Large Lan.. 2024. 1. 23. [머신러닝] XGBoost 알고리즘이란? 머신러닝 분야는 끊임없이 발전하고 있으며, 그 중심에 XGBoost가 자리 잡고 있습니다. 오늘은 Kaggle, Dacon 등 AI 대회에서도 빠짐없이 등장하는 XGBoost 알고리즘에 대해 알아보겠습니다. XGBoost는 eXtreme Gradient Boosting의 약자로, 기존의 결정 트리를 기반으로 한 알고리즘을 한 단계 끌어올린 기계 학습 방법론입니다. XGBoost의 기본 원리 XGBoost는 결정 트리(Decision Tree)를 기반으로 하는 앙상블 학습 방법 중 하나입니다. 간단히 말해, 여러 개의 결정 트리를 결합하여 각 트리의 예측력을 강화하는 방식으로 작동합니다. 이는 각 트리가 이전 트리의 오차를 보완하며 순차적으로 학습하는 방식으로 진행됩니다. XGBoost의 장점 성능: XG.. 2024. 1. 22. 나만의 챗봇 Service해보기(2) : WIZnet Doc에 있는 데이터를 학습시키자! 안녕하세요 오늘은 나만의 챗봇 서비스해보기 2탄으로 돌아왔습니다. 오늘은 나만의 챗봇을 학습하기 위한 데이터를 가져오는 방법을 알려드리려고 합니다. 우선 데이터를 구축하기 위한 예시로 WIZnet의 doc를 가져와봅시다. 아래 Github링크를 들어가면 WIZnet의 doc를 마크다운 파일로 확인할 수 있습니다. https://github.com/Wiznet/document_framework GitHub - Wiznet/document_framework Contribute to Wiznet/document_framework development by creating an account on GitHub. github.com 이중 W5500를 예시로 가져왔습니다. ## W5500 ![W5500 Photo .. 2024. 1. 19. 삼성 갤럭시 S24 시리즈 모바일 AI의 새로운 시대 안녕하세요 Simon 입니다 저번에 갤럭시 AI 가 나온다고 게시글을 올렸었는데 삼성홈페이지에 글이 올라와서 다시한번 리마인드 해드립니다. 정말 온디바이스 AI 시대가 오고 있는 듯 한 느낌입니다. Enter the New Era of Mobile AI With Samsung Galaxy S24 Series Empowering everyday experiences, from barrier-free communication to awe-inspiring creativity to the power for even more possibilities, Galaxy AI transforms the iconic S series for the future news.samsung.com 삼성 갤럭시 S24 시리즈, 갤.. 2024. 1. 19. 나만의 챗봇 Service해보기(1) - 결과부터 보자. 안녕하세요 Acorn입니다. 최근에 저는 기술의 발전에 매료되어 있습니다. 특히 LLM 분야에서의 급속한 진보가 놀라울 따름인데요. 이번 프로젝트는 LLM, 특히 RAG를 통한 CustomChatbot 제작을 위한 공부를 하고, Streamlit을 통해 서비스화를 시켜보았습니다. Streamlit은 데이터 사이언스와 머신 러닝을 위한 빠르고 사용하기 쉬운 앱 프레임워크입니다. Python 기반으로 작동하기 때문에, 저와 같은 개발자들에게 친숙한 환경에서 작업할 수 있었습니다. Langchain은 최신의 언어 모델을 사용하여 다양한 언어 작업을 수행할 수 있는 라이브러리입니다. 이 두 도구를 결합하여, 쉽고 빠르게 서비스화할 수 있는 챗봇 프로젝트를 제작하였습니다. 아래 사이트는 제가 제작한 챗봇 사이트입.. 2024. 1. 18. 라즈베리파이와 GPT-4-VISION Few-shot을 통한 예제 메인페이지 게재 안녕하세요 Simon 입니다. 오늘은 제가했던 프로젝트가 Rasppberry PI 메인 홈페이지에 게시가 되어서 소개를 해드리려고 합니다. Raspberry Pi From industries large and small, to the kitchen table tinkerer, to the classroom coder, we make computing accessible and affordable for everybody. www.raspberrypi.com 저희 회사에서는 매달 UI Creation 이라고 말 그대로 제가 스스로 저희 회사 제품을 사용해서 컨텐츠를 제작하는 업무가 있습니다. 평소에 Creative 한 걸 좋아하는 저에겐 어쩌면 재미있는 업무이기도 합니다. 평가를 해서 사장님이 금 또한 주.. 2024. 1. 18. LLM 데이터셋 관련 정리 - 대규모 원시 말뭉치 안녕하세요 Simon 입니다. 오늘은 LLM 데이터셋 관련 대규모 말뭉치에 관해 글을 정리해볼까 합니다. 오늘날의 GPT와 같은 모델들은 이 대규모 원시 말뭉치를 통해 Self-Supervised Training 이 되어 다양한 형태로 Fine-Tunning 되어 우리의 일상속에 들어와 있습니다. T5를 시작으로 엄청나게 발전을 많이 했는데요. 저도 2022년에 AI를 입문하게 되었고 자연어처리는 GPT가 나오고 배웠지만 거의 T5가 주류를 이루고 있었는데 현재 지금 엄청 빠르게 발전한 모습이네요. 그렇다면 이 LLM들을 어디서 학습데이터를 구하냐? 바로 우리 곁에 있습니다. 다들 한번쯤 해보신 크롤링을 통해서 데이터를 모을 수 있고, 위에 소개해드린대로 AIhub 와 같은 데이터센터에서 가져올 수 도 .. 2024. 1. 17. 프롬프트 엔지니어링의 새로운 방법 : PAL(Program-Aided Language Models) 의 원리와 실제 적용 사례 안녕하세요 Simon 입니다 오늘은 또 재미있는 새로운 프롬프팅 기법을 소개해드릴려고 합니다. PAL (프로그램지원언어모델) 입니다. 어떤 Application 을 구축함에 있어서 내가 원하는 형식의 Output 을 얻기 위해 LLM으로 부터 다양한 프롬프팅 방법과 프레임워크 등을 사용 하곤 하는데 이것도 Few-Shot 프롬프트의 종류로 원하는 숫자값, Date 값, 특정 값을 뽑아 낼 수 있도록 코드 인터프리터 프로그래밍 방식을 함께 런타임을 단계적으로 수행해서 해결해 나가는 기법입니다. 정답을 얻기 위해서 자유로운 텍스트 형식을 쓰기 때문에 CoT 와는 조금 차이가 있습니다. https://arxiv.org/abs/2211.10435 PAL: Program-aided Language Models L.. 2024. 1. 17. Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4 논문 리뷰 - (2) https://wiz-tech.tistory.com/60 Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4 논문 리뷰 - (1) 안녕하세요 Simon 입니다. 오늘은 프롬프트 관련 논문에 대해서 리뷰를 하려고 합니다. 좋은 프롬프트를 만드는 26가지 원칙이라고 하는데요 위 논문 리뷰를 통해 보다 GPT를 잘 쓰고 Insight 를 많이 wiz-tech.tistory.com 위 내용을 참조해주시길 바랍니다. 실험 부분부터 다시 리뷰하겠습니다. Experiments 1. Setup and Implementation Details https://github.com/VILA-Lab/ATLAS GitHub - VILA-Lab.. 2024. 1. 15. Prompt Hacking 에 대응하는 필수 전략 ( GPTs 안전하게 잘쓰는법 ) 지난주 GPTs (GPT Store)가 출시되면서 다양한 GPT들이 공개되었고 많은 사람들이 정말 GPT를 잘 사용하고 있었구나.. 라고 느끼며 반성하는 요즘입니다. 또한 Trending을 이해하는데도 많은 도움이 되고 있는데요, 상위 GPT 들의 Instuction에 대한 순수한 궁금증으로 여러 GPT들의 insturction을 물어보면서 특이한 점을 발견했습니다. 아래 사진처럼 instruction에 보안 프롬프트를 적용시켜놓은 GPT들도 있고 아닌 경우도 있었습니다. 왼쪽의 Grimorie GPT의 경우 instruction 관련 어떠한 질문을 유도를 하더라도 같은 양식이 출력되면서 OpenAI의 정책 상 공개할 수 없다, 대신 coding 관련 질문을 해달라는 식으로 보안 프롬프트가 잘 적용된 모.. 2024. 1. 15. Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4 논문 리뷰 - (1) 안녕하세요 Simon 입니다. 오늘은 프롬프트 관련 논문에 대해서 리뷰를 하려고 합니다. 좋은 프롬프트를 만드는 26가지 원칙이라고 하는데요 위 논문 리뷰를 통해 보다 GPT를 잘 쓰고 Insight 를 많이 얻어갔으면 합니다. https://arxiv.org/abs/2312.16171 Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4 This paper introduces 26 guiding principles designed to streamline the process of querying and prompting large language models. Our goal is to simplify the und.. 2024. 1. 15. GPT 스토어에서 가장 인기있는 챗봇은? 안녕하세요 Acorn입니다. 저번주 GPTs가 나온 이후, 어떤 챗봇이 올라와있나 탐색하는 시간을 가졌는데요, AITimes의 기사를 참고하여 GPTs에서 가장 인기있는 챗봇들을 간략하게 조사 해보았습니다. 오픈AI의 'GPT 스토어'가 11일에 출시되어 여러 맞춤형 챗봇들이 주목을 받고 있습니다. 이곳에는 최근 2개월간 생성된 300만개 챗봇 중 일부가 사용자에 의해 등록되었습니다. 해당 스토어는 '추천(Featured)', '인기(Trending)', '자체제작(By ChatGPT team)' 등의 섹션으로 대표 챗봇들을 소개하고 있으며, 사용자가 만든 챗봇은 다양한 카테고리로 구분되어 있습니다. 카테고리별 1위와 순위권에 오른 대표 챗봇들을 분석해 봤습니다. GPT 스토어에서 가장 인기 있는 GPT.. 2024. 1. 15. [Simon] 챗봇개발일지 - (1) RAG 챗봇을 구축하는 과정에서 그냥 Langchain 으로 Document 로더를 통해서 , Finecon, 크로마DB 와 같은 Vector DB 로 임베딩을 한 후 코사인 시밀러 서치를 통해 값을 가져오면 끝? 간단하게 생각을 했다. 사실 아직 제대로 챗봇을 구성해보진 않았다 왜냐면 데이터가 정제가 잘 안되어있는 문제도 있을 뿐더러, 자꾸 만들지도 않고 성능개선에 대한 문제점만 생각을 했다. 처음에 랭체인의 Cookbook 을 따라 쳐보면서 클론코딩을 하면서 어느정도 라이브러리에 대한 이해도를 키웠는데 지금은 많이 이해한 상태이다. 그렇다면 우리 회사의 데이터는 다양한 파일이 존재하는데 이걸 어떻게 결합하지 그 의문이 사실 들었었다. 웹의형태도 있을거고, 그냥 문서를 로드하는 경우도 있을것이다. 그런.. 2024. 1. 11. ChatGPT Team: 중소기업을 위한 GPT-4 요금제 출시 안녕하세요 Benjamin 입니다. 현재 GPTs. GPT Store가 너무 핫한 상황입니다. 저도 눈뜨자마자 다양한 순위권의 GPTs를 사용해보면서 흥미로운 경험들을 많이 했습니다. 순위권에 있는 GPTs들의 경우에도 Instruction에 따로 보안 프롬프트를 적용하지 않은 경우, 해당 instruction들을 요약해서 확인할 수 있었고, 이를 통해 제가 기존에 사용하던 다양한 GPTs들도 발전시킬 수 있었습니다. 예시로, Kaggle 이나 Dacon 같은 AI Competition에서 도움을 받을 수 있는 Daggle mentor를 만들어보았습니다. ChatGPT - Daggle Mentor Chatbot for coding to win the Dacon & Kaggle competition cha.. 2024. 1. 11. AI 시대의 새로운 지평 GPT Store의 등장과 그 혁신적인 특징 안녕하세요 Simon 입니다. 드디어 오늘 새벽에 GPTs의 Store가 오픈을 했습니다. 드디어 저도 부자가 될 수 있을까요?🤣 https://chat.openai.com/gpts Explore GPTs Discover and create custom versions of ChatGPT that combine instructions, extra knowledge, and any combination of skills. chat.openai.com 최근 AI 기술의 발전과 함께, 우리의 일상과 업무 환경에 혁신적인 변화가 일어나고 있습니다. 이러한 변화의 최전선에 서 있는 GPT Store가 공개되었다는 소식은 AI 기술의 미래와 그 가능성을 더욱 기대하게 만듭니다. GPT Store는 다양한 GPT 기.. 2024. 1. 11. [LangChain] LangChain이란 무엇인가? - (1) 안녕하세요, Benjamin입니다. 최근 다시 기본을 다지기 위해서 다시한번 Langchain방식에 대해서 깊이있는 공부를 시작하였고 관련해서 공부한 내용을 순서대로 잘 정리해보려합니다. 가장먼저 LangChain의 정의부터 시작해서 Quickstart를 통한 예제 실습까지 순차적으로 진행하며 글을 추가하겠습니다. Langchain 이란? 가장 먼저 https://python.langchain.com/docs/get_started/introduction Docs사이트에 나와있는 설명을 다시 정리해보았습니다. LangChain 은 언어 모델을 기반으로 한 애플리케이션 개발을 위한 프레임워크로, 다음과 같은 특징을 갖추고 있습니다. 문맥 인식 : Langchain은 언어 모델을 다양한 문맥 소스(프롬프트 지.. 2024. 1. 10. Git 커밋의 기술: 신입 개발자(나)를 위한 가이드 안녕하세요. Acorn입니다. 개발자로서 우리의 일상은 코드를 작성하고, 수정하고, 개선하는 과정에서 이루어집니다. 이 모든 과정은 Git과 같은 버전 관리 시스템을 통해 관리됩니다. Git의 중심 기능 중 하나는 '커밋(commit)'인데, 이는 우리의 변경 사항을 기록하는 중요한 단계입니다. 그러나 많은 신입 개발자들이 이 과정을 어떻게 해야 할지, 또는 어떻게 하면 효과적으로 할 수 있을지에 대해 종종 혼란을 겪습니다. 오늘은 Git에서 커밋을 하는 법과, 특히 '개발자다운' 커밋을 하는 방법에 대해 알아보려 합니다. Git 커밋이란? Git 커밋은 버전 관리 시스템에서 변경 사항을 기록하는 행위입니다. 커밋을 통해 우리는 코드의 변경 내역, 변경 이유, 그리고 그 변경이 언제 이루어졌는지를 추적할.. 2024. 1. 10. 삼성 갤럭시 AI 폰 갤럭시 출시 예정 안녕하세요 Simon 입니다. 이전에 Apple의 ML Reserch 들이 열일을 하고 있다고 논문이랑 여러 글을 리뷰했었는데 삼성도 일을 하기 시작했습니다. 드디어 온디바이스 AI 시대의 서막이 열린듯합니다. Galaxy AI 를 삼성이 공개를 한다고 합니다. 현재 삼성 메인 페이지에서 알람 신청을 받고 있으며 다양한 이벤트를 진행하고 있습니다. 삼성전자는 현지시간 1월 17일 미국 캘리포니아주 새너제이(San Jose)에서 사용자의 일상을 연결하고 창작의 방식을 완전히 바꿀 새로운 갤럭시 제품을 선보일 예정입니다. 이번에 삼성에서 나올 새 스마트폰, 정말 흥미로운 기능들이 많습니다. 먼저, 이 스마트폰은 ‘온디바이스 AI’와 클라우드 AI를 결합한 하이브리드 AI 기능을 갖추고 있습니다. 이게 무슨 .. 2024. 1. 9. 이전 1 2 3 4 다음 728x90