Course Outline

Ollama 소개

  • Ollama은 무엇이고 어떻게 작동합니까?
  • AI 모델을 로컬에서 실행하는 이점
  • 지원되는 LLM(Llama, DeepSeek, Mistral 등) 개요

설치 및 설정 Ollama

  • 시스템 요구 사항 및 하드웨어 고려 사항
  • 다양한 운영체제에 Ollama 설치하기
  • 종속성 및 환경 설정 구성

로컬에서 AI 모델 실행

  • Ollama에서 AI 모델 다운로드 및 로드
  • 명령줄을 통한 모델과의 상호 작용
  • 로컬 AI 작업을 위한 기본 프롬프트 엔지니어링

성능 및 리소스 사용 최적화

  • 효율적인 AI 실행을 위한 하드웨어 리소스 관리
  • 대기 시간 단축 및 모델 응답 시간 개선
  • 다양한 모델에 대한 벤치마킹 성능

로컬 AI 배포를 위한 Use Case

  • AI 기반 채팅봇 및 가상 비서
  • 데이터 처리 및 자동화 작업
  • 개인정보 보호에 중점을 둔 AI 애플리케이션

요약 및 다음 단계

Requirements

  • AI 및 머신러닝 개념에 대한 기본 이해
  • 명령줄 인터페이스에 대한 익숙함

청중

  • 클라우드 종속성 없이 AI 모델을 실행하는 개발자
  • Business AI 프라이버시 및 비용 효율적인 배포에 관심이 있는 전문가
  • 로컬 모델 배포를 모색하는 AI 애호가들
 7 Hours

Number of participants


Price per participant

Upcoming Courses

Related Categories