본문 바로가기
728x90

llm56

LLM 데이터셋 관련 정리 - 대규모 원시 말뭉치 안녕하세요 Simon 입니다. 오늘은 LLM 데이터셋 관련 대규모 말뭉치에 관해 글을 정리해볼까 합니다. 오늘날의 GPT와 같은 모델들은 이 대규모 원시 말뭉치를 통해 Self-Supervised Training 이 되어 다양한 형태로 Fine-Tunning 되어 우리의 일상속에 들어와 있습니다. T5를 시작으로 엄청나게 발전을 많이 했는데요. 저도 2022년에 AI를 입문하게 되었고 자연어처리는 GPT가 나오고 배웠지만 거의 T5가 주류를 이루고 있었는데 현재 지금 엄청 빠르게 발전한 모습이네요. 그렇다면 이 LLM들을 어디서 학습데이터를 구하냐? 바로 우리 곁에 있습니다. 다들 한번쯤 해보신 크롤링을 통해서 데이터를 모을 수 있고, 위에 소개해드린대로 AIhub 와 같은 데이터센터에서 가져올 수 도 .. 2024. 1. 17.
프롬프트 엔지니어링의 새로운 방법 : PAL(Program-Aided Language Models) 의 원리와 실제 적용 사례 안녕하세요 Simon 입니다 오늘은 또 재미있는 새로운 프롬프팅 기법을 소개해드릴려고 합니다. PAL (프로그램지원언어모델) 입니다. 어떤 Application 을 구축함에 있어서 내가 원하는 형식의 Output 을 얻기 위해 LLM으로 부터 다양한 프롬프팅 방법과 프레임워크 등을 사용 하곤 하는데 이것도 Few-Shot 프롬프트의 종류로 원하는 숫자값, Date 값, 특정 값을 뽑아 낼 수 있도록 코드 인터프리터 프로그래밍 방식을 함께 런타임을 단계적으로 수행해서 해결해 나가는 기법입니다. 정답을 얻기 위해서 자유로운 텍스트 형식을 쓰기 때문에 CoT 와는 조금 차이가 있습니다. https://arxiv.org/abs/2211.10435 PAL: Program-aided Language Models L.. 2024. 1. 17.
Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4 논문 리뷰 - (2) https://wiz-tech.tistory.com/60 Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4 논문 리뷰 - (1) 안녕하세요 Simon 입니다. 오늘은 프롬프트 관련 논문에 대해서 리뷰를 하려고 합니다. 좋은 프롬프트를 만드는 26가지 원칙이라고 하는데요 위 논문 리뷰를 통해 보다 GPT를 잘 쓰고 Insight 를 많이 wiz-tech.tistory.com 위 내용을 참조해주시길 바랍니다. 실험 부분부터 다시 리뷰하겠습니다. Experiments 1. Setup and Implementation Details https://github.com/VILA-Lab/ATLAS GitHub - VILA-Lab.. 2024. 1. 15.
Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4 논문 리뷰 - (1) 안녕하세요 Simon 입니다. 오늘은 프롬프트 관련 논문에 대해서 리뷰를 하려고 합니다. 좋은 프롬프트를 만드는 26가지 원칙이라고 하는데요 위 논문 리뷰를 통해 보다 GPT를 잘 쓰고 Insight 를 많이 얻어갔으면 합니다. https://arxiv.org/abs/2312.16171 Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4 This paper introduces 26 guiding principles designed to streamline the process of querying and prompting large language models. Our goal is to simplify the und.. 2024. 1. 15.
[Simon] 챗봇개발일지 - (1) RAG 챗봇을 구축하는 과정에서 그냥 Langchain 으로 Document 로더를 통해서 , Finecon, 크로마DB 와 같은 Vector DB 로 임베딩을 한 후 코사인 시밀러 서치를 통해 값을 가져오면 끝? 간단하게 생각을 했다. 사실 아직 제대로 챗봇을 구성해보진 않았다 왜냐면 데이터가 정제가 잘 안되어있는 문제도 있을 뿐더러, 자꾸 만들지도 않고 성능개선에 대한 문제점만 생각을 했다. 처음에 랭체인의 Cookbook 을 따라 쳐보면서 클론코딩을 하면서 어느정도 라이브러리에 대한 이해도를 키웠는데 지금은 많이 이해한 상태이다. 그렇다면 우리 회사의 데이터는 다양한 파일이 존재하는데 이걸 어떻게 결합하지 그 의문이 사실 들었었다. 웹의형태도 있을거고, 그냥 문서를 로드하는 경우도 있을것이다. 그런.. 2024. 1. 11.
AI 시대의 새로운 지평 GPT Store의 등장과 그 혁신적인 특징 안녕하세요 Simon 입니다. 드디어 오늘 새벽에 GPTs의 Store가 오픈을 했습니다. 드디어 저도 부자가 될 수 있을까요?🤣 https://chat.openai.com/gpts Explore GPTs Discover and create custom versions of ChatGPT that combine instructions, extra knowledge, and any combination of skills. chat.openai.com 최근 AI 기술의 발전과 함께, 우리의 일상과 업무 환경에 혁신적인 변화가 일어나고 있습니다. 이러한 변화의 최전선에 서 있는 GPT Store가 공개되었다는 소식은 AI 기술의 미래와 그 가능성을 더욱 기대하게 만듭니다. GPT Store는 다양한 GPT 기.. 2024. 1. 11.
[LangChain] LangChain이란 무엇인가? - (1) 안녕하세요, Benjamin입니다. 최근 다시 기본을 다지기 위해서 다시한번 Langchain방식에 대해서 깊이있는 공부를 시작하였고 관련해서 공부한 내용을 순서대로 잘 정리해보려합니다. 가장먼저 LangChain의 정의부터 시작해서 Quickstart를 통한 예제 실습까지 순차적으로 진행하며 글을 추가하겠습니다. Langchain 이란? 가장 먼저 https://python.langchain.com/docs/get_started/introduction Docs사이트에 나와있는 설명을 다시 정리해보았습니다. LangChain 은 언어 모델을 기반으로 한 애플리케이션 개발을 위한 프레임워크로, 다음과 같은 특징을 갖추고 있습니다. 문맥 인식 : Langchain은 언어 모델을 다양한 문맥 소스(프롬프트 지.. 2024. 1. 10.
Switch Transformers: Scaling to Trillion Parameter Modelswith Simple and Efficient Sparsity 논문 리뷰 안녕하세요 Simon 입니다. 오늘 리뷰해볼 논문은 MoE 모델의 아키텍처인 Switch Transformers 입니다. 사실 제가 딥러닝을 배우기전에 나왔던 논문인데 신기하게 다 언젠가는 빛을 바라는 순간이 오는거 같습니다. Abstrack 스위치 트랜스포머는 전통적인 딥러닝 모델의 한계를 극복하기 위해 개발된 새로운 접근 방식입니다. 기존 모델들이 모든 입력에 대해 동일한 매개변수를 사용하는 반면, 스위치 트랜스포머는 각 입력 예제마다 다른 매개변수를 선택하는 혼합(전문가 혼합) 모델을 채택합니다. 이 방식은 매개변수의 수를 크게 늘리면서도 계산 비용을 일정하게 유지합니다. 그러나 이러한 모델은 복잡성, 통신 비용, 그리고 훈련의 불안정성과 같은 문제들을 가지고 있었습니다. 스위치 트랜스포머는 이러한.. 2024. 1. 8.
2023년 GitHub 하이라이트 AI 혁신부터 보안 강화까지, 올해의 주목할 만한 기술 동향 안녕하세요 Simon 입니다 벌써 1월의 둘째주가 시작되고 있는데 다들 신년계획은 잘 하고 계신지 모르겠습니다. 다들 연말, 신년에 보통 이전년도를 회고를 하는 게시물이 많이 올라옵니다. Github 에서도 통계글이 올라왔는데요 재밌고 github 자체로 S/W 시장의 흐름과 트렌드가 무엇인지 알 수 있을거 같아서 가지고 왔습니다. https://github.blog/2023-12-27-githubs-top-blog-posts-of-2023/ GitHub’s top blog posts of 2023 As the year winds down, we're highlighting some of the incredible work from GitHub’s engineers, product teams, and s.. 2024. 1. 8.
오픈리더보드의 평가지표에 대해 안녕하세요 Simon 입니다. 오늘은 Open LLM Leaderboard 에서 순위를 평가하는 지표에 대해서 자세히 알아보겠습니다. https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard Open LLM Leaderboard - a Hugging Face Space by HuggingFaceH4 huggingface.co 평가방식(Im-evaluation-harness) - 질문과 보기를 모델에 입력을 합니다. - 각 보기를 생성할 확률을 통해 예측을 수행합니다. - In-context Learning 을 위해 예제를 함께 삽입합니다. 질문 : 인구가 제일 많은 나라는? 보기 : (1) 중국 (2) 한국 (3) 미국 (4) 일본 [모델의 추론.. 2024. 1. 4.
SOLAR 10.7B: Scaling Large Language Models with Simple yet EffectiveDepth Up-Scaling 논문리뷰 안녕하세요 Simon입니다. 오늘 소개해드릴 논문은 SOLAR 10.7B에 관한 논문입니다. 지금 FastCampus에서 Upstage의 파인튜닝 노하우 강의를 듣고 있는데 김성훈 CEO가 소개해준 내용과 연관해서 리뷰를 해보겠습니다. 강의를 수강하는데 계속 웃음꽃이 떠나질 않는 거 보면 확실히 현재 제일 hot 한 최전선에 있는 분야에서 최고가 된 만큼 얼마나 기쁠까 생각이 들긴 합니다. LLM의 평가지표는 여러가지가 있습니다. H4는 4개의 데이터셋으로 평가한다는 의미인데요, 현재 H7 까지도 증가해서 평가를 받고 있습니다. 그말은 즉슨 H4에서의 벤치마크가 높은데 H7에서는 떨어진다? 이 말은 모델이 그만큼 일반화가 되지 않은 모델이라고 생각해 볼 수 있습니다. LLM 평가지표에 대한 글은 제가 다.. 2024. 1. 4.
RAGTruth: A Hallucination Corpus for Developing Trustworthy Retrieval-Augmented Language Models 논문 리뷰 안녕하세요 Simon 입니다. 오늘 소개해드릴 논문은 RAG 관련 논문입니다. 아무래도 RAG가 이제 많이 알려지기도 했고 LLM 의 필수요소로 자리잡고 있습니다. 저희도 일단 RAG 자체는 완벽히 이해하고 구현을 하자 느낌이 강해서 새로운 논문을 리딩한번 해보겠습니다. Abstract 위 논문은 할루시네이션을 줄이기위해 RAG 검색증강 생성을 사용하였지만 여전히 검색내용과 모순되거나 뒷받침 되지 않는 주장을 할 수 있다는 것을 개선하기 위해 RAGTruth라는 코퍼스를 제시합니다. 연구는 다른 LLM들에서 환각 빈도를 비교하고, 기존 환각 탐지 방법의 효과를 평가합니다. 또한, 고품질 데이터셋을 사용하여 작은 LLM을 미세 조정함으로써, 최신 대규모 모델을 사용하는 기존 방법과 경쟁할 수 있는 환각 탐.. 2024. 1. 3.
A Prompt Pattern Catalog to Enhance Prompt Engineering with ChatGPT 논문 리뷰 - (2) 안녕하세요 Simon 입니다. 오늘은 A Prompt Pattern Catalog to Enhance Prompt Engineering with ChatGPT 논문 리뷰 - (2) 입니다. https://wiz-tech.tistory.com/36 A Prompt Pattern Catalog to Enhance Prompt Engineering with ChatGPT 논문 리뷰 -(1) 개발자에게 유용한 Prompt 안녕하세요 Simon 입니다 오늘 소개해드릴 논문은 A Prompt Pattern Catalog to Enhance Prompt Engineering with ChatGPT 라는 논문입니다. 이 논문의 배경은 반더빌트 대학에서 GPT를 사용하면서 녹아낸 프롬프트 엔 wiz-tech.tistor.. 2023. 12. 29.
A Prompt Pattern Catalog to Enhance Prompt Engineering with ChatGPT 논문 리뷰 -(1) 개발자에게 유용한 Prompt 안녕하세요 Simon 입니다 오늘 소개해드릴 논문은 A Prompt Pattern Catalog to Enhance Prompt Engineering with ChatGPT 라는 논문입니다. 이 논문의 배경은 반더빌트 대학에서 GPT를 사용하면서 녹아낸 프롬프트 엔지니어링 팁들이 담겨있습니다. Prompt 엔지니어링에 관심이 있으신분들은 위 강의를 꼭 들어보시는 것을 추천을 드립니다. 또 수료하면 자격증이 나오니 그거에 관련해서 링크드인에 자격증을 업로드 할 수 있습니다. 이 외에도 뤼튼에서 진행하고 있는 프롬프톤 WCC 자격증 강의도 수강하시면 좋습니다. Abstrack 이 논문은 대규모 언어 모델(Large Language Models, LLMs)과의 대화에서 사용되는 프롬프트 엔지니어링 기술을 패턴.. 2023. 12. 20.
대규모 언어 모델(Large Language Models, LLMs)에 대한 포괄적 조사 본 내용은 아래 Medium 글을 정리하였습니다. https://cobusgreyling.medium.com/a-comprehensive-survey-of-large-language-models-llms-946a30d9288e 핵심 내용 정리 논문 발표 증가: "대규모 언어 모델"이란 제목이나 초록에 포함된 arXiv 논문의 평균 발표 수가 하루 0.40편에서 8.58편으로 증가 LLM의 원리: 대규모 언어 모델의 진보와 영향에도 불구하고, 그 기본 원리는 아직 잘 탐구되지 않음 오픈 소스 LLM의 역할: Meta의 기여는 중요하며, 오픈 소스 LLM은 확장, 맞춤화 및 성장의 촉매제 역할 LLaMA 모델 활용 연구: 많은 연구자들이 LLaMA 모델을 지시 조정(instruction tuning) 또는 .. 2023. 12. 19.
MoE : Mixture of Experts Explained 는 무엇이길래 열광인가? 안녕하세요 Simon 입니다. 이번 포스팅할 게시물은 차기 Transformers 기반의 AI 생태계를 변화시킬 수 있을지 집중이 되고있는 MoE에 대해서 알아보겠습니다. 모든 게시물은 Hugging Face 에 소개된 게시물을 토대로 작성되었습니다. https://huggingface.co/blog/moe#what-is-a-mixture-of-experts-moe Mixture of Experts Explained Mixture of Experts Explained With the release of Mixtral 8x7B (announcement, model card), a class of transformer has become the hottest topic in the open AI commun.. 2023. 12. 18.
Nature's 10 올해를 빛낸 10인의 과학자 중 비인간 1명 ChatGPT 2023년 12월 14일, 세계적인 과학 저널인 《자연》(Nature)은 2023년의 10대 과학 인물을 발표했다. 이 중에는 흥미롭게도 한 개의 인공지능 모델이 포함되어 있었다. 바로 OpenAI에서 개발한 대규모 언어 모델인 ChatGPT이다. 이외에도, 과학 분야에 괄목할 만한 성과를 거둔 10명의 인물이 선정되었다. 그들의 혁신적인 업적은 다음과 같다. 카르파나 카라하스티(Kalpana Kalahasti)는 인도 우주 연구 위원회(ISRO)의 "달나라 탐사선" 프로젝트의 부책임자이다. 그녀는 이 프로젝트를 통해 인도 최초로 달 표면에 착륙하는 데 성공했다. 안니 크리체르(Annie Kritcher)는 미국 국립 점화 장치(NIF)의 수석 설계자이다. 그녀는 NIF를 통해 핵융합 에너지를 실현하기 .. 2023. 12. 15.
[Langchain] 평점기반의 맛집 RAG LLM 구축하기 안녕하세요 Simon 입니다. 이번에 소개해드릴 컨텐츠는 Langchain 을 활용해서 보다 쉽게 RAG 서비스를 구축하는 방법입니다. 다들 맛집 좋아하실텐데 평점을 얼마나 믿으시는지는 모르겠습니다. 사실 구축단계에서 한국 사람들이 아무래도 네이버라는 플랫폼을 많이쓰고 신뢰하고 정보도 많기 때문에 NAVER API 를 활용하고 싶었으나, 진짜 감촉같이 이거 조금만 api 데이터쓰면 item 이다 할만한것만 지원을 하지 않는 모습이더라구요. 그래서 더욱 범용적인 Google maps 를 활용해서 만들어보았습니다. 이전에 사실 카카오톡맵기반으로 크롤링을 해서 데이터를 구축해서 만들려고 시도를 해보았으나, 자꾸 동적페이지 다음페이지 넘어가면서 Chrome Driver 가 오류가 나는 바람에 데이터를 구축하지를.. 2023. 12. 15.
ReAct Prompting 에 대하여 최근 Yao et al., 2022의 연구에서 소개된 ReAct 프레임워크는 대규모언어모델의 사용 방식에 혁신을 가져왔습니다. 이 프레임워크는 추론 추적과 작업별 행동을 인터리브 방식으로 생성하여, 모델이 행동 계획을 유도, 추적, 업데이트하고 예외를 처리할 수 있게 합니다. ReAct의 핵심 개념 ReAct는 인간의 학습 및 의사 결정 과정에서 영감을 받아, "행동"과 "추론"의 시너지 효과를 모델링합니다. 이는 대규모언어모델이 외부 소스와 상호 작용하며 정보를 수집하고, 보다 신뢰할 수 있고 사실적인 응답을 생성하는 데 도움을 줍니다. ReAct의 장점 ReAct 프레임워크는 언어 및 의사 결정 작업에서 여러 최신 기술의 기준선을 능가하는 성능을 보여주었습니다. 특히, 인간의 해석 가능성과 대규모언어.. 2023. 12. 13.
[Langchain] RAG 멀티모달을 활용한 추론 - 이력서 첨삭 튜터 안녕하세요, 여러분. 오늘은 최근에 접한 흥미로운 프로젝트, 바로 '멀티모달 이력서 첨삭 튜터'에 대해 이야기해보려 합니다. 이 프로젝트는 GPT-4 기반의 인공지능을 활용하여 이력서 작성과 첨삭을 돕는 혁신적인 시도인데요, 그 세부 내용을 한번 살펴보겠습니다. 멀티모달 이력서 첨삭 튜터의 개발 배경 이 프로젝트의 출발점은 사람들이 널리 사용하는 인공지능 이력서 서비스에 GPT-4 기반의 기능을 추가하여 더 향상된 서비스를 제공하고자 하는 아이디어였습니다. 특히, 비전 관련 기능을 첨삭하는 부분에 초점을 맞추었죠. 이는 기존의 텍스트 중심 이력서 서비스를 한 단계 끌어올리는 시도라고 할 수 있습니다. 기능 및 사용 방법 사용자는 자신의 이력서를 PDF 형식으로 업로드하고, 이력서와 관련된 질문을 입력합니.. 2023. 11. 30.
Andrew Ng prompt for ChatGPT 우리가 살고 있는 디지털 시대에 인공지능(AI)은 더 이상 먼 미래의 이야기가 아닙니다. AI는 이미 우리 일상 속에 깊숙이 자리 잡고 있으며, 그 중심에는 '언어 모델(Language Model)'이 있습니다. 이러한 언어 모델의 발전은 Andrew Ng과 같은 AI 분야의 선구자들 덕분에 가능했습니다. 특히, 최근에는 '프롬프트 엔지니어링(Prompt Engineering)'이라는 새로운 개념이 등장하며 AI의 활용 범위와 효율성을 한층 더 높이고 있습니다. 프롬프트 엔지니어링은 AI, 특히 대규모 언어 모델을 효과적으로 활용하기 위한 방법론입니다. 이는 AI에게 정확한 지시와 문맥을 제공하여, 보다 정확하고 유용한 결과를 얻어내는 기술입니다. Andrew Ng과 같은 전문가들은 이 분야에서 중요한 .. 2023. 11. 27.
ChromaDB로 RAG(Retrieval-Augmented Generation)방식의 챗봇 구현하기 이전 WIZnet AI Chatbot의 동작 원리글에서 설명했듯이, 기업에서 AI 챗봇을 개발할 때, 주로 두 가지 방법을 고민합니다. Fine-tuning과 Retrieval Augmented Generation(RAG). 이 두 방식은 AI 챗봇의 성능을 극대화하고, 사용자 경험을 향상하는 데 중요한 역할을 합니다. RAG (Retrieval Augmented Generation) : 검색 증강 생성이란? RAG는 대규모 언어 모델에게 추가적인 외부 데이터를 제공하는 방식입니다. 이 방식은 먼저 필요한 데이터를 임베딩 형태로 변환하여 벡터 데이터베이스에 저장합니다. 사용자의 질문이 들어오면, 이 질문과 관련된 데이터를 데이터베이스에서 검색하여 언어 모델에 제공합니다. 이렇게 검색된 데이터는 언어 모델.. 2023. 11. 24.
[OpenAI DevDay] OpenAI 개발자 컨퍼런스: GPT-4 Turbo와 새로운 기능들 새벽 3시에 개최된 OpenAI 개발자 컨퍼런스에서는 여러 놀라운 소식들이 전해졌다. 특히, GPT-4 Turbo라는 새로운 모델이 소개되었으며, 이는 128,000 토큰 컨텍스트를 지원한다. 또한, Json 모드를 통해 출력을 json으로만 할 수 있게 되었고, 여러 함수를 한 번에 처리할 수 있는 더 나은 펑션 콜링 기능도 추가되었다. 데이터 학습 기간은 2021년 9월부터 2023년 4월까지로 반영되었으며, 새로운 모달리티, GPT-4 Turbo with vision, 달리3, TTS 등이 API로 사용 가능하게 되었다. 또한, 오픈소스 모델인 Whisper V3도 API로 제공될 예정이다. GPT-4의 가격도 인하되었는데, 인풋 토큰은 3배 저렴하게, 아웃풋 토큰은 2배 저렴하게 조정되었다. 이외.. 2023. 11. 8.
효과적인 AI 프롬프팅 전략을 위한 가이드 인공 지능(AI) 기술의 진화는 대화형 AI의 프롬프팅 기법에도 혁신적인 변화를 가져왔습니다. 특히 OpenAI의 GPT-4 같은 고급 모델에서는 사용자의 의도를 정확히 파악하고 적합한 결과를 도출하기 위해 구조화된 프롬프트 작성이 핵심적인 역할을 합니다. 이 글에서는 구조화된 프롬프트 작성을 위한 전략과 이를 효과적으로 활용하는 방법에 대해 설명하겠습니다. 1. 명확한 지침과 컨텍스트 제공 프롬프트는 사용자의 요구 사항을 분명하게 전달할 수 있도록 명확한 지침과 컨텍스트를 포함해야 합니다. 부정적인 표현보다는 명령문 형태로 지시를 제공하여 AI가 보다 효과적으로 행동을 이행하도록 해야 합니다. 예시: 잘못된 방식: "쓰지 마세요." 올바른 방식: "다음과 같이 작성해주세요." 2. 프롬프트 길이와 중복.. 2023. 11. 8.
ChatGPT와 서비스 진화: 선택형에서 임베디드형까지 ChatGPT의 등장은 대화형 인터페이스의 세계를 혁명적으로 바꿨습니다. 이 글에서는 ChatGPT와 관련된 다양한 서비스 유형과 그 진화를 살펴보겠습니다. 1. 선택형 서비스 정의: ChatGPT의 등장 이전에 주로 사용되던 서비스. 사용자의 입력이나 클릭을 기반으로 하는 GUI 소통 방식을 사용합니다. 특징: 사용자의 자유도가 제한되며, 제품 팀의 입장에서는 사용자의 행동 패턴을 예측하기 쉽습니다. 예시: 은행의 이전 서비스 챗봇, 미드저니, Speech(TTS), 뤼튼과 같은 선택형 서비스. 2. 대화형 서비스 정의: ChatGPT의 등장 이후 급격히 확산된 서비스. 사용자와 서비스가 직접 "대화"를 통해 상호 작용합니다. 특징: 사용자 패턴 예측이 어렵습니다. 예시: 마이크로소프트의 "Copilo.. 2023. 11. 6.
내가 좋아하는 가수로 음원 변환하기 TTS 기술 review 안녕하세요. Simon 입니다. 일교차가 많이 쌀쌀해지고 있습니다. 다들 환절기에 감기 조심하시고 집에서 따끈한~ GPU와 함께 딥러닝 한잔은 어떠실까요? 첫 포스팅을 쓰게 되는데 앞으로 재밌는 기술 , 저희 회사에서 하는 Contents 제작 관련된 글들을 포스팅 해보려고 합니다. 저는 AI 엔지니어이기 때문에 다른 논문리뷰, 오픈소스 관련 세미나 글도 써볼 예정입니다. https://github.com/jh941213 오늘은 AI 기술을 활용하여 음악의 보컬을 합성하고 음악을 제작하는 방법에 대해 소개하려고 합니다. 최근에는 AI 기술이 음악 분야에서도 큰 주목을 받고 있습니다. 그 중에서도 TTS(Tex-to-Speech) 기술은 특히 눈에 띄는 발전을 보이고 있습니다. 1. 시작하기 전에 필요한 .. 2023. 11. 2.
728x90
반응형