
--- README.md
+++ README.md
... | ... | @@ -14,6 +14,8 @@ |
14 | 14 |
|
15 | 15 |
이것만 수정하면 원하는 질의응답을 할 수 있습니다. |
16 | 16 |
|
17 |
+현재 Llama Index의 가장 기본적인 프롬프트 엔지니어링을 사용하고 있습니다. 따라서 대답이 단답형이고 딱딱합니다. |
|
18 |
+ |
|
17 | 19 |
현재 작동중인 모델은 Mixtral 8x7B - instruct v0.1 이며 AWQ 4INT 양자화를 사용하였습니다. 한국어를 지원하지만 때때로 영어로 대답하는 문제가 있으며 이는 LLAMA INDEX상에서 기본적으로 하고 있는 프롬프트 엔지니어링이 모두 영어여서 그럴 수 있습니다. (이 문제는 gpt3.5-turbo도 가지고 있는 문제입니다) |
18 | 20 |
|
19 | 21 |
document_load_embedding.py 는 새로 임베딩을 실행하지 않고 vector db에서 임베딩을 불러와 검색하는 방식입니다. |
... | ... | @@ -24,7 +26,6 @@ |
24 | 26 |
|
25 | 27 |
기본 설정된 embedding 파일은 한국어를 지원합니다. 다음의 모델을 사용합니다. [sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2) |
26 | 28 |
또한 Mixtral의 근본적인 한계로써, 영단어의 한국어 음차를 이상하게 읽는 문제가 있습니다. |
27 |
-현재 Llama Index의 가장 기본적인 프롬프트 엔지니어링을 사용하고 있습니다. 따라서 대답이 단답형이고 딱딱합니다. |
|
28 | 29 |
|
29 | 30 |
|
30 | 31 |
## 작동 구조 - Vector DB |
Add a comment
Delete comment
Once you delete this comment, you won't be able to recover it. Are you sure you want to delete this comment?