인공지능의 손과 발 - MCP란 무엇인가?
·
AI/Large Language Model
인공지능의 '도구'최근 AI가 단순히 텍스트 답변을 넘어서, 그림을 그리거나 웹을 검색하고, 복잡한 코드를 작성하는 등 다양한 작업을 수행하는 모습이 우리에게 익숙해지고 있다. 이러한 능력은 AI가 외부 도구를 활용 할 수 있기 떄문에 가능한 것 이다. 하지만 지금까지는 이 도구들이 특정 플랫폼에 종속되어 있었다. 예를 들어 OpenAI의 ChatGPT 내부에서만, Langchain의 '도구'는 그 프레임워크 안에서만 사용 가능했다.이러한 한계를 해결하기 위해 등장한 것이 바로 MCP(Model Context Protocol)이다.MCP란 무엇인가?표준화된 도구 인터페이스: AI용 USB-CMCP는 인공지능이 다양한 도구를 손쉽게 사용할 수 있도록 만들어진 표준 프로토콜이다.기존에는 플랫폼 마다 도구의 ..
Python 패키지/환경/버전 통합 관리 도구 UV 정리
·
Development/Project
개요최근 파이썬 기반의 AI 에이전트 및 MCP 서버 등 다양한 프로젝트에서 UV라는 패키지 관리 도구가 활발히 사용되고 있다.uv는 파이썬 패키지 설치, 가상환경 구성, 파이썬 버전관리 기능을 하나로 통합한 CLI 기반 도구이다.https://github.com/astral-sh/uv GitHub - astral-sh/uv: An extremely fast Python package and project manager, written in Rust.An extremely fast Python package and project manager, written in Rust. - astral-sh/uvgithub.com UV주요 특징항목설명언어Rust 기반의 pip 랩퍼주요기능패키지 설치, 가상환경 관리,..
pyproject.toml 톺아보기
·
Development/Project
Python 개발의 핵심:  pyproject.tomlpyproject.toml이란?- Python 프로젝트의 의존성, 빌드 방식, 도구 설정을 통합 관리하는 구성 파일- Python 공식 표준 (PEP 518)- uv, poetry, black, pytest, ruff 등 다양한 도구와 연동됨기본 구조 예시[project]name = "myapp"version = "0.1.0"description = "A sample Python project using pyproject.toml"authors = [{ name = "Hyunmin", email = "hyunmin@example.com" }]dependencies = [ "requests>=2.31", "pydantic>=2.0,=3.10"..
구글 colab과 vscode 연동하기
·
Data Science/Data Engineering
개요구글 코랩은 굉장히 가성비가 좋은 데이터분석툴이다.쥬피터와 비슷한 환경을 가지고 있어 사용하는데 어색하지 않으며, GPU를 무료로 빌려주어 딥러닝 학습에도 많이 사용한다.vscode와 연동하여, 굳이 코랩으로 사용하지 않고 vscode 환경에서 사용하는 방법을 소개하려한다.ngrok 설치https://dashboard.ngrok.com/get-started/setup외부에서 로컬에 접속할수 있게 해주는 터널링 프로그램OS에 맞게 설치 (꼭 해야하는지는 확인 못함)https://dashboard.ngrok.com/get-started/your-authtoken위의 경로에서 authtoken 생성 (유효 기간 8시간)Colab 설정구글 Drive와 Colab 연동하기from google.colab imp..
Meta Tag를 사용한 뉴스기사 제목, 요약문, 이미지가져오기
·
Data Science/Data Engineering
개요뉴스기사 URL을 input으로 넣으면 해당 URL에서 대표이미지, 기사 제목 등을 가져오는 모듈이 필요했다.예를 들자면 아래 사진처럼 카카오톡이나 슬랙 등에 url만 넣으면 자동으로 이미지와 링크로 연결되는 컨텐츠를 만들어주는것이다.코드구글링을 해보니 기사에는 meta tag라는것이 있었고, 이를 parsing하면 간단히 구현이 가능해보였다.Python의 requests와 BeautifulSoup, Pillow, io를 사용하여 구현하기로 마음을 먹었다.우선 header를 설정하여 주었고, requests와 Beutifulsoup으로 html을 parsing 해왔다.이후 find 함수를 통해 meta의 title, description, image_url, image를 가져왔고, 이를 dict 형태..