본문 바로가기
반응형

AI/LLM18

카카오 playMCP 체험기: AI와 툴이 만나는 새로운 방식 카카오의 playMCP 는 단순히 “질문-답변”에 머무르지 않고, AI가 상황에 맞게 툴(MCP)을 직접 호출하는 구조를 제공합니다.저는 직접 여러 MCP를 실행해 보면서 “AI가 이제 답변을 넘어 행동까지 한다”는 걸 체감했습니다.MCP란 무엇인가?MCP(Model Context Protocol)는 AI와 다양한 기능 모듈을 연결해주는 프로토콜입니다.단순 텍스트 답변이 아니라검색·추천·변환·공유 같은 액션을 대화 안에서 실행필요할 때 MCP를 불러와 기능을 확장 → AI가 점점 멀티플러그인 허브로 진화 카카오에서 제공하는 MCP들 카카오 공식 발표에 따르면, PlayMCP는 다양한 MCP 서버와 연결 가능하도록 설계돼 있고, 카카오 내부 주요 서비스들이 MCP로 연동되는 실험을 이미 진행 중이라고 합.. 2025. 10. 1.
[Table MRC] 다양한 형태의 테이블 데이터 활용 개요좀 더 복잡하고 다양한 포맷의 테이블 데이터 확보/생성포맷 : 마크다운/ HTML표 형태 : 병합, 표 안의 표 등등1) 포맷기본적으로 테이블 데이터의 형태는 크게 마크다운과 마크업 (HTML)으로 나뉨.마크다운 ? HTML?마크다운은 기본적으로 셀 병합이나 표 안의 표(중첩 테이블) 같은 복잡한 구조를 직접 지원하지 않음. 하지만HTML 태그를 함께 사용하거나데이터를 여러 행으로 나누어 표현하는 방식등으로 어느 정도 해결할 수 있음📌 마크다운 vs HTML 비교 (LLM 관점) 포맷이해하기 쉬움구조 분석복잡한 테이블 지원요약 작업 적합성Markdown✅ 쉬움✅ 간단한 행/열 구조❌ 제한적 (병합, 중첩 불가)✅ 요약하기 좋음HTML❌ 상대적으로 어려움✅ 강력한 구조 표현✅ 병합, 중첩 가능❌ 코드.. 2025. 2. 18.
[LLM] Linux nvidia gpu 메모리 초기화 vLLM으로 LLM 모델을 하나 띄웠는데, 중단했는데 자꾸 GPU에 메모리가 잡혀 있는 현상 발생... 다른 모델 하나 더 띄우려고 하니까 OOM(Out of Memory) 에러나서 gpu를 점유하고 있는 프로세스를 종료하려고 했으나,nvidia-smi로 조회해도 PID가 조회가 안된다...ㅎㅎ  보통은 아래와 같이 내가 돌린 커맨드에 따라 실행중인 프로세스의  PID를 조회하고 해당 프로세스를 종료하면 되는데..ps -elf | grep [nohup, python, vllm 등 찾고자 하는 커맨드 키워드]kill -9 [PID]  아무리 찾아도 안나옴.심지어 학습을 돌린게 아니라서 torch.cuda.empty_cache(): 전혀 작동 안됨. 애초에 학습 혹은 테스트 코드 프로세스가 잡혀있지 않음. .. 2024. 10. 22.
[LLM] ollama 사용하기 Ollama란?Ollama은 로컬 컴퓨터에서 실행할 수 있는 가벼운 확장 가능한 프레임워크다. 이 프레임워크는 언어 모델을 구축하고 실행하며 관리하기 위한 간단한 API를 제공하며, 미리 구축된 모델 라이브러리를 다양한 응용 프로그램에서 쉽게 사용할 수 있도록 한다. Ollama는 Llama 3.1, Mistral, Gemma 등 다양한 모델을 지원하며 CLI, REST API, 웹 및 데스크톱 통합을 제공한다. Ollama 공식 사이트에서 블로그, 깃헙을 보면 보다 자세한 내용을 확인할 수 있다.  Ollama 공식 블로그 - https://ollama.com/blog Blog · OllamaGet up and running with large language models.ollama.com Ollam.. 2024. 8. 13.
반응형