์ผ | ์ | ํ | ์ | ๋ชฉ | ๊ธ | ํ |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- ํฐ์คํ ๋ฆฌ์ฑ๋ฆฐ์ง
- ์ค๋ธ์
- ์ํ
- ๋์ ๊ณํ๋ฒ
- ์ ๋ ฌ
- ๋จธ์ง์ํธ
- ํ๋ก๊ทธ๋๋จธ์ค
- DFS
- LIS
- ๋ค์ด๋๋ฏนํ๋ก๊ทธ๋๋ฐ
- DP
- ๋์ ํฉ
- ํ์ด์ฌ
- ์ฐ์ ์์ํ
- ๋ฐฑ์ค
- db
- BFS
- ๊ทธ๋ฆฌ๋
- ์๊ณ ๋ฆฌ์ฆ
- skala
- ๊ทธ๋ํํ์
- ๋ฐ์ดํฐ๋ฒ ์ด์ค
- ์์ํ์
- ๋๋น์ฐ์ ํ์
- ๋ณํฉ์ ๋ ฌ
- ๊ตฌํ
- SQL
- ๊ทธ๋ํ
- ๊น์ด์ฐ์ ํ์
- skala1๊ธฐ
- Today
- Total
๋ชฉ๋กmachine learning (6)
๐๐ญ๐ฐ๐ธ ๐ฃ๐ถ๐ต ๐ด๐ต๐ฆ๐ข๐ฅ๐บ

LangChain?LangChain์ ๋ํ ์ธ์ด ๋ชจ๋ธ(LLM)์ ํจ์จ์ ์ผ๋ก ํ์ฉํ ์ ์๋๋ก ์ง์ํ๋ ํ๋ ์์ํฌ๋ก, AI ๊ธฐ๋ฐ ์ ํ๋ฆฌ์ผ์ด์ ๊ฐ๋ฐ์ ๋ณด๋ค ์ฒด๊ณ์ ์ด๊ณ ์ ์ฐํ๊ฒ ์ค๊ณํ ์ ์๋๋ก ๋๋๋ค. LangChain์ ๋ค์ํ LLM๊ณผ ์ฐ๋ํ ์ ์์ผ๋ฉฐ, ์ด๋ฅผ ํตํด AI ๋ชจ๋ธ์ ์ฝ๊ฒ ํธ์ถํ๊ณ , ๋ํํ ์๋ต์ ์์ฑํ๊ฑฐ๋ ๋ฐ์ดํฐ ๋ถ์ ๋ฐ ์๋ํ ํ๋ก์ธ์ค๋ฅผ ๊ตฌ์ถํ๋ ๋ฐ ํ์ฉํ ์ ์๋ค.- ChatGPT LangChain์ ๋ค์ํ LLM ๋ชจ๋ธ์ ์์ฝ๊ฒ ํธ์ถํ๊ณ ์ฌ์ฉํ ์ ์๊ฒ ์ง์ํ๋ค. ํนํ OpenAI API๋ฅผ ์ง์ ํ์ฉํ์ฌ ํ๋กฌํํธ๋ฅผ ์ ๋ฌํ๋ ๋ฐฉ์๋ณด๋ค LangChain์ ํ์ฉํ๋ฉด LLM์ ํ์ฉํ๋ ์ธก๋ฉด์์ ํ์ฅ์ฑ๋ ์ข๊ณ ์ฝ๋ ํ์ฉ๋ ํจ์ฌ ๊ฐํธํ๋ค. ์ค์ ์ฝ๋๋ฅผ ๋๊ณ ๋น๊ตํด๋ ์๋์ ๊ฐ์ด ๋ ์ง๊ด์ ์ผ๋ก ์ดํดํ๊ธฐ..

Temperature?์ธ์ด ๋ชจ๋ธ์ด ํ ์คํธ๋ฅผ ์์ฑํ ๋ ๋๋ค์ฑ์ ์ ์ดํ๋ ํ์ดํผ ํ๋ผ๋ฏธํฐ๋ก, ๋ชจ๋ธ์ด ์์ฑํ ๋ค์ ๋จ์ด์ ํ๋ฅ ๋ถํฌ๋ฅผ ์กฐ์ ํ๋ค. ๊ฐ์ ๋ฒ์๋ ์ผ๋ฐ์ ์ผ๋ก [0, 1]์ ๊ฐ๋๋ค.๋ฎ์ ๊ฐ์ผ์๋ก ๋ชจ๋ธ์ด ๋ ์์ธก ๊ฐ๋ฅํ ์ถ๋ ฅ์ ์์ฑํ๊ณ , ๋์ ๊ฐ์ผ ์๋ก ๋ชจ๋ธ์ด ๋ ๋ค์ํ๊ณ ์ฐฝ์์ ์ธ ์ถ๋ ฅ์ ์์ฑํ๋ค. ์ด๋ก ์ ์ผ๋ก 1.0 ์ด์์ ๊ฐ์ ๊ฐ์ง ์ ์์ผ๋, ๊ฐ์ ํค์ ๋ค์์ฑ์ ๋๋ฆด ์๋ก ๋ฌด์์์ฑ๋ ํจ๊ป ์ฆ๊ฐํ๊ธฐ ๋๋ฌธ์ ๋จ์ ๋๋ค ํ ์คํธ ์์ฑ์ ๊ทธ์น ์ ์๋ค. ๋ํ, ํ๊ตญ์ด์ ๊ฒฝ์ฐ 1.0 ์ด์์ ๊ฐ์ผ๋ก ๋์ด๊ฐ๋ฉด ๋ง์ถค๋ฒ์ด ๋ฌ๋ผ์ง ์ ์๋ค.0์ ๊ฐ๊น์ธ ์๋ก ์ ํด์ง ๋ต๋ณ์ ์ํํ๊ธฐ ๋๋ฌธ์, ์ผ๋ฐ์ ์ผ๋ก 0 ~ 0.5 ์ดํ์ ๊ฐ์ ์ฌ์ฉํ๋ ๊ฒ์ ๊ถ์ฅํ๋ค. ๊ทผ๋ฐ1 ์ด์์ ์์ ๋๋ฅผ ๊ฐ์ง ๋ ๋ต๋ณ์ด ์ด๋ป๊ฒ ๋ฌ๋ผ์ง๋์ง ๊ถ๊ธํด์..

์ด๋๋ง ์ธ๊ณต์ง๋ฅ์ ๋๋ช ์ฌ๊ฐ ๋ GPT..OpenAI์ GPT์ ์ด๊ธฐ ๋ชจ๋ธ์ด์๋ GPT-1, GPT-2, GPT-3๋ฅผ ์ด์ ์ผ ์ฝ๊ณ ์ ๋ฆฌํด๋ณด์๋ค. GPT-1, 2, 3 ๋ ผ๋ฌธ ์ ๋ฆฌGPT-1: Improving Language Understanding by Generative Pre-TrainingGPT-2: Language Models are Unsupervised Multitask LearnersGPT-3: Language Models are Few-Shot Learners GPT๋?Generative Pre-Trained Transformer๋ก, ๋ง ๊ทธ๋๋ก์ฌ์ ํ๋ จ๋ Transformer ๋ชจ๋ธ ๊ธฐ๋ฐ ์ธ์ด ์์ฑ ๋ชจ๋ธ์ด๋ค.์ฆ, GPT-1, 2, 3 ๊ทธ ์ธ ๋ชจ๋ GPT ๋ชจ๋ธ์ Decoder-only ๊ตฌ์กฐ๋ก, T..

๋ฅ๋ฌ๋ ํ๊ณ ์ ๋ฐ์ ํ์ ์ ์ธ ๋ํ์ ๋ชฐ๊ณ ์จ ๋ ผ๋ฌธ,Attention is All You Need: https://dl.acm.org/doi/10.5555/3295222.3295349 Attention is all you need | Proceedings of the 31st International Conference on Neural Information Processing SystemsPublication History Published: 04 December 2017dl.acm.org BERT ๋ ผ๋ฌธ๋ ์ปจํผ๋ฐ์ค ๋ ผ๋ฌธ์๋ค ๊ฑฐ์ Encoder ๊ตฌ์กฐ๋ฅผ ๊ทธ๋๋ก ๊ฐ๋ค ์ผ๊ธฐ ๋๋ฌธ์๋ชจ๋ธ์ ๊ตฌ์กฐ์ ์ธ ๋ถ๋ถ์ ๋์์์ง ์์ ์ด์ฉ ์ ์์ด Transformer ๋ ผ๋ฌธ๋ ๊ฐ์ด ๊ณต๋ถํ๊ฒ ๋์๊ณ ,์ฝ์ ๊น์ ์ ๋ฆฌํด์ ๊ธฐ๋ก์ผ๋ก ๋จ..

๋จ๋ค DeepSeek ์ฝ์๋ ์ด์ ์์ผ BERT ์ฝ๊ณ ์ ๋ฆฌํ๋คhttps://arxiv.org/abs/1810.04805 BERT: Pre-training of Deep Bidirectional Transformers for Language UnderstandingWe introduce a new language representation model called BERT, which stands for Bidirectional Encoder Representations from Transformers. Unlike recent language representation models, BERT is designed to pre-train deep bidirectional representations from ..

https://arxiv.org/abs/0711.0189 Von Luxburg, U. (2007). A tutorial on spectral clustering. Statistics and computing, 17, 395-416. ๋ด์ฉ ์ ๋ฆฌ 1. Introduction Spectral clustering : ๊ณ ์ ๊ฐ์ ์ฌ์ฉํ ๊ทธ๋ํ ๊ธฐ๋ฐ ํด๋ฌ์คํฐ๋ง Spectrum : ํ๋ ฌ์ ๊ณ ์ ๊ฐ๋ค์ ์งํฉ โ ์ฆ, ๊ทธ๋ํ์ ์คํํธ๋ผ์ ๋ถ์ํ๊ฒ ๋ค๋ ์๋ฏธ ๋ฐ์ดํฐ์ feature๊ฐ์ ํ๋์ ์ขํ๋ก ์๊ฐํ์ฌ ์ ํด๋ฆฌ๋์ ๊ณต๊ฐ์์ ํด๋ฌ์คํฐ๋ง์ ํ๋ k-means ํด๋ฌ์คํฐ๋ง๊ณผ ๋ฌ๋ฆฌ ์ฐ๊ฒฐ ์ ๋ณด๋ฅผ ํ๋จํ๋ ๊ทธ๋ํ ๊ธฐ๋ฐ์ ์คํํธ๋ด ํด๋ฌ์คํฐ๋ง์ ์ฌ์ฉํ๋ฉด convex ๋ชจ์์ ํด๋ฌ์คํฐ ๋ฟ๋ง ์๋๋ผ ๋ ๋ณต์กํ ๋ชจ์์ ํด๋ฌ์คํฐ์ ๊ฒฝ์ฐ์๋ ์ฝ๊ฒ ํด..