좀 더 잘 알게 되어서 감사합니다. 근데 저는 한글 임베딩 모델에서 똑같이 했지만. 여전히 유사도가 제대로 안나옵니다. 질문: 홍길동은 아버지를 아버지라 부르지 못하였습니다. 홍길동 아버지의 이름은 무엇입니까? ---------------------------------------------------------------------------------------------------- 홍길동의 아버지는 엄했습니다. 문장유사도: 0.81 제 이름은 홍길동입니다. 문장유사도 0.54 랭체인은 유용합니다. 문장유사도 0.23 홍길동 아버지의 이름은 홍상직입니다. 문장유사도 0.61 ===================================아래 코드================================= 코드가 틀렸는지 다시 한번 해봐야 할 것 같습니다. sentences=[ "안녕하세요", "제 이름은 홍길동입니다.", "이름이 무엇인가요?", "랭체인은 유용합니다.", "홍길동 아버지의 이름은 홍상직입니다." ] ko_embeddings = ko.embed_documents(sentences) q ="홍길동은 아버지를 아버지라 부르지 못하였습니다. 홍길동 아버지의 이름은 무엇입니까?" a = "홍길동의 아버지는 엄했습니다." ko_query_q = ko.embed_query(q) ko_query_a = ko.embed_query(a) print("질문: {} ".format(q),"-"*100) print("{} \t\t 문장유사도: ".format(a), round(cos_sim(ko_query_q, ko_query_a),2)) print("{}\t\t\t 문장유사도".format(sentences[1]), round( cos_sim(ko_query_q, ko_embeddings[1]),2)) print("{}\t\t\t 문장유사도".format(sentences[3]), round( cos_sim(ko_query_q, ko_embeddings[3]),2)) print("{}\t 문장유사도".format(sentences[4]), round( cos_sim(ko_query_q, ko_embeddings[4]),2))
모두의AI 좋은 강의 감사합니다. 최고중에 최고입니다.
이렇게 질좋은 강의를 무료로 제공해주셔서 감사합니다!!
좋은 말씀 감사합니다 🥰
좋은 강의 감사합니다. 혹시 강의 안에서 언급된 허깅페이스에 있는 한국어 임베딩 리더보드 주소 알려주실 수 있나요?
huggingface.co/spaces/upstage/open-ko-llm-leaderboard
여깁니다!
강의 감사히 보고 있습니다. 영상 9:39 에 api_key가 노출 되어 있습니다. 이미 처리 하셨겠지만 걱정이 되어 남깁니다.
네 말씀주신것처럼 이미 삭제한 키입니다. 걱정해주셔서 감사합니다🙏
고급 강의 항상 감사합니다
좋은 내용 공유해주셔서 감사합니다
시청해 주셔서 감사드립니다.
좋은 내용 감사합니다!!
이해가 잘됩니다! 감사합니다.
혹시 rag를 사용해서 정해진 단어카드들의 배열로만 답변을 하는 시스템을 만들 수 있을까요? 단어카드들은 모두 embedding되어있는 상태에서 질문과 유사성을 비교해서 답변할만한 단어카드를 골라서 답변하는 것을 생각해봤는데 이론상 가능한건지 여쭤보고 싶어요..
네, 단어카드를 임베딩 하셔서 RAG에 그대로 활용하시면 됩니다. 대신 RAG 프롬프트 템플릿을 조금 수정하시면 되겠습니다.
정말 큰 도움 되었습니다😊
궁금한게 허깅페이스나 openai는 임베딩 모델인데 sbert같은건 허깅페이스 기반 임베딩 모델인가요?
번역기라고 보면되나요?
허깅페이스는 오픈소스 모델을 공유하는 플랫폼입니다 sbert는 한국어 오픈소스 임베딩 모델로, 허깅페이스에서 끌어다 쓸 수 있습니다.
이번 강의 colab 코드 공유 요청드리고 싶습니다
커뮤니티에 올려두었습니다!
안녕하세요 랭체인 과정 잘 듣고있습니다 ㅎㅎ 강의를 듣고 문서나 텍스트집을 요약하는 기능을 랭체인으로 만들어보고 싶은데 RAG는 질문과 유사한 텍스트를 가쟈와 답변을 하는 거라 요약으로 보긴 어려울 거 같아요 혹시 다른 방법 있을까요?
load_summarize_chain이라는 요약 전용 체인이 있습니다. 아래 링크 확인해보시면 도움 될 것 같습니다.
python.langchain.com/docs/use_cases/summarization
좀 더 잘 알게 되어서 감사합니다. 근데 저는 한글 임베딩 모델에서 똑같이 했지만. 여전히 유사도가 제대로 안나옵니다.
질문: 홍길동은 아버지를 아버지라 부르지 못하였습니다. 홍길동 아버지의 이름은 무엇입니까?
----------------------------------------------------------------------------------------------------
홍길동의 아버지는 엄했습니다. 문장유사도: 0.81
제 이름은 홍길동입니다. 문장유사도 0.54
랭체인은 유용합니다. 문장유사도 0.23
홍길동 아버지의 이름은 홍상직입니다. 문장유사도 0.61
===================================아래 코드=================================
코드가 틀렸는지 다시 한번 해봐야 할 것 같습니다.
sentences=[
"안녕하세요",
"제 이름은 홍길동입니다.",
"이름이 무엇인가요?",
"랭체인은 유용합니다.",
"홍길동 아버지의 이름은 홍상직입니다."
]
ko_embeddings = ko.embed_documents(sentences)
q ="홍길동은 아버지를 아버지라 부르지 못하였습니다. 홍길동 아버지의 이름은 무엇입니까?"
a = "홍길동의 아버지는 엄했습니다."
ko_query_q = ko.embed_query(q)
ko_query_a = ko.embed_query(a)
print("질문: {}
".format(q),"-"*100)
print("{} \t\t 문장유사도: ".format(a), round(cos_sim(ko_query_q, ko_query_a),2))
print("{}\t\t\t 문장유사도".format(sentences[1]), round( cos_sim(ko_query_q, ko_embeddings[1]),2))
print("{}\t\t\t 문장유사도".format(sentences[3]), round( cos_sim(ko_query_q, ko_embeddings[3]),2))
print("{}\t 문장유사도".format(sentences[4]), round( cos_sim(ko_query_q, ko_embeddings[4]),2))
다른 임베딩 모델 사용하신거 아닌가요?
영상에서도 잘 나와있듯이
HuggingFaceBgeEmbeddings가 아니라 HuggingFaceEmbeddings로 embedding model을 가지고 오셔야 합니다.
저도 동일한 문제가 있었는데, 이렇게 해야 제대로 동작하네요 :)
너무 섹시해요...
수업내용이 매우 만적스럽습니다만, colab이 잘 보이지 않습니다. TT
이런...ㅠㅠ 이번 주말에 올릴 영상은 최대한 잘 보이게 확대해서 녹화해보겠습니다
감사합니다
시청해 주셔서 감사드립니다.