no image
[VectorDB] Milvus 연결 + 컬렉션 및 스키마 생성하기
안녕하세요? 이번에는 Python으로 Milvus 연결 + 컬렉션 및 스키마 생성하는 법을 알려드리겠습니다. 1. 서버에서 Milvus를 구동합니다.저는 간단하게 블로그 작성용 + 테스트용으로 사용을 할려고 해서 docker-compose를 사용해서 진행하겠습니다.다른분들은 따라 하실때 docker-container(standalone)로 사용하셔도 무관합니다. 2. 정상적으로 구동이 되었는지 확인 3. vscode를 킵니다.필요한 모듈 설치pip install pymilvus# pymilvus 모듈을 설치합니다. 설치가 완료되면 아래와 같이 연결 테스트를 진행합니다.from pymilvus import connectionsconnection_args = { "host": "192.168.XX.XX..
2024.08.26
no image
[VectorDB] Milvus docker에 설치하기
이번에는 Milvus 데이터베이스 docker에 구축방법을 작성해보겠습니다. 순서ContainerDocker-Compose방법1. docker-standalone본문링크 : https://milvus.io/docs/install_standalone-docker.md Run Milvus in Docker | Milvus DocumentationLearn how to install Milvus standalone with Docker. | v2.4.xmilvus.io Milvus-standalone 쉘파일 다운로드 코드curl -sfL https://raw.githubusercontent.com/milvus-io/milvus/master/scripts/standalone_embed.sh -o standalo..
2024.08.22
no image
[VectorDB] Milvus 정의
안녕하세요? 이번에는 VectorDataBase의 유명한 MILVUS 데이터베이스를 설치하는 방법에 대해 작성해보겠습니다. 설치 이후 LangChain과 같이 RAG(검색 증강 생성)을 사용하는 모습도 나중에 작성하겠습니다. Milvus란? Milvus는 벡터 데이터베이스로, 대규모 벡터 데이터를 효율적으로 관리하고 검색할 수 있도록 설계된 오픈 소스 데이터베이스 시스템입니다.  벡터 데이터는 고차원 특성을 가진 데이터 포인트로, 일반적으로 머신러닝과 딥러닝 모델의 출력(예: 이미지, 텍스트, 오디오 등의 임베딩)으로 생성됩니다.  Milvus는 이러한 벡터들을 빠르게 검색하고 유사성을 평가하는 데 최적화되어 있으며, 특히 AI 애플리케이션에서 널리 사용됩니다. 더군다나 라이센스가 상업적으로 사용가능하므..
2024.08.22
no image
[Error] OSError: [WinError 126] 지정된 모듈을 찾을 수 없습니다. fbgemm.dll or one of its dependencies.
Windows 시스템에서 fbgemm.dll 또는 그 의존성 파일을 찾지 못해 발생하는 OSError: [WinError 126] 오류는 여러 가지 원인에 의해 발생할 수 있습니다.이 글에서는 이 오류의 원인과 이를 해결하는 방법에 대해 알아보겠습니다. 오류원인:1. DLL 파일 누락fbgemm.dll 파일이 시스템에 없다면, 소프트웨어를 재설치하거나, 해당 DLL 파일을 다운로드하여 지정된 위치에 복사해야 합니다.2. 의존성 문제 해결Dependency Walker 같은 도구를 이용해 DLL 파일이 필요로 하는 모든 의존성 파일들이 시스템에 존재하는지 확인하세요.3. 환경 변수 설정시스템 환경 변수에 fbgemm.dll 파일의 경로를 추가하여 시스템이 파일을 찾을 수 있게 해줍니다.4. 파일 손상 해결..
2024.08.19
no image
AI 답변 생성 시스템 구축: LangChain + LangGraph와 Ollama를 사용한 간단한 워크플로우
안녕하세요. 이번에는 LangChain, Ollama, LangGraph를 사용하여 간단한 AI 답변 생성 시스템을 구축하는 방법을 소개하겠습니다. 사용된 기술 및 라이브러리 LangChain: AI 모델과의 상호작용을 쉽게 구성할 수 있는 프레임워크입니다. 다양한 모델과 연결하여 일련의 작업을 처리하는 데 유용합니다.Ollama: 다양한 언어 모델을 제공하는 플랫폼으로, 여기서는 gemma2.gguf 모델(SionicAI)을 사용해 AI 응답을 생성합니다.LangGraph: 상태 기반의 워크플로우를 구성할 수 있는 툴입니다. 이를 통해 복잡한 프로세스를 손쉽게 관리할 수 있습니다. 코드 설명이제 코드를 단계별로 살펴보겠습니다. 0. 필요한 모듈 임포트from typing import TypedDictf..
2024.08.19
로컬 Ollama를 vscode에서 추론을 해보자!
안녕하세요. 이전 글에서 Ollama에 모델을 등록하는 방법을 알려드렸는데요. 이번에는 vscode를 사용해서 Ollama의 모델을 실행하는 방법을 알려드리겠습니다. 1. vscode를 엽니다. 2. 아래와 같이 코드를 작성합니다.from langchain_community.chat_models.ollama import ChatOllamallm = ChatOllama( model='gemma2',)respone = llm.invoke("너는 어떤 모델이야?")print(respone.content)# 이때 model부분은 ollama list에서 자신이 등록한 모델명을 기입하면 됩니다.3. 실행결과 자 이렇게 깔끔하고 정확하게 답변이 나오는것을 볼 수 있습니다. 다음 글은 간단하게 벡터DB 구성을 ..
2024.08.17