Ubuntu를 사용하든 다른 시스템을 사용하든 컴퓨터에 DeepSeek-R1을 로컬로 설치하고 사용하는 방법

  • DeepSeek-R1은 고급 추론 기능을 갖춘 오픈 소스 모델입니다.
  • Ollama는 AI 모델의 로컬 설치 및 관리를 단순화합니다.
  • ChatBoxAI는 DeepSeek과 같은 모델과 상호 작용할 수 있는 그래픽 인터페이스를 제공합니다.
  • 이 모델은 Python을 사용하여 개발 프로젝트에 쉽게 통합될 수 있습니다.

Ubuntu의 DeepSeek-R1

인공 지능은 계속해서 세상을 변화시키고 있으며 고급 언어 모델을 사용할 수 있는 옵션이 비약적으로 늘어나고 있습니다. 그러나 모든 사람이 이러한 기술을 탐색하기 위해 클라우드 서비스에 연결하거나 타사에 의존할 필요는 없습니다. 흥미롭고 접근하기 쉬운 대안은 다음과 같습니다. DeepSeek-R1, 사용자가 적당한 컴퓨터에서 로컬로 실행할 수 있는 AI 모델입니다. 이 기사에서는 DeepSeek을 설치하고 그 기능을 최대한 활용하는 방법을 설명합니다.

DeepSeek-R1은 오픈 소스 AI 모델 효율성과 고급 추론 능력이 돋보이는 제품입니다. 로컬에서 실행하면 반복되는 비용을 절약할 수 있을 뿐만 아니라 개인 정보를 보호하고 이를 맞춤형 프로젝트에 통합할 수 있는 유연성을 얻을 수 있습니다. 일부 모델에는 강력한 하드웨어가 필요하지만 DeepSeek-R1은 기본 컴퓨터부터 고급 워크스테이션까지 다양한 리소스에 맞게 조정된 버전을 제공합니다.

DeepSeek은 무엇이며 로컬에서 사용하는 이유는 무엇입니까?

DeepSeek-R1은 논리적 추론과 같은 복잡한 작업을 위해 설계된 고급 언어 모델, 수학적 문제를 해결하고 코드를 생성합니다. 가장 큰 장점은 오픈 소스라는 점입니다. 즉, 외부 서버에 의존하지 않고 자신의 컴퓨터에 설치하고 실행할 수 있다는 의미입니다.

주목할만한 기능 중 일부는 다음과 같습니다.

  • 유연성 : 라이트 버전부터 고급 구성까지 필요에 따라 모델을 조정할 수 있습니다.
  • 개인 정보 : 모든 처리는 로컬에서 수행되므로 민감한 데이터 노출에 대한 우려가 없습니다. 많은 사람들이 기업이 우리 데이터로 무엇을 할 수 있는지에 대해 우려하고 있기 때문에 이것이 아마도 가장 중요한 점일 것입니다.
  • 절약: 구독이나 클라우드 서비스에 많은 돈을 들이지 않아도 되므로 개발자와 기업을 위한 저렴한 옵션이 됩니다.

설치 요구 사항

설치를 시작하기 전에 다음 사항을 준수하는지 확인하십시오. 요구 사항:

  • Linux, macOS 또는 Windows 운영 체제(후자의 경우 WSL2 지원)가 설치된 컴퓨터.
  • 최소 RAM의 8 GB, 적어도 권장되지만 16 GB 최적의 성능을 위해.
  • 처음에 모델을 다운로드하려면 인터넷에 접속하세요.
  • 터미널 또는 명령줄에 대한 기본 지식.

또한, 라는 도구를 설치해야 합니다. 올라마, DeepSeek 모델을 로컬에서 관리하고 실행합니다.

올라마 설치

올라마 다음과 같은 언어 모델을 다운로드하고 실행할 수 있는 간단한 솔루션입니다. DeepSeek-R1. 설치하려면 다음 단계를 따르세요.

  1. Linux 또는 macOS에서는 터미널을 열고 다음 명령을 실행하여 Ollama 패키지를 설치합니다. 분명히 필요합니다 –:
컬 -fsSL https://ollama.com/install.sh | 쉿
  1. Windows 시스템에서는 미리 WSL2가 활성화되어 있는지 확인한 다음 WSL 내에서 구성한 Ubuntu 터미널에서 동일한 단계를 따릅니다.
  2. 다음을 실행하여 Ollama가 올바르게 설치되었는지 확인하세요. ollama --version. 명령이 버전 번호를 반환하면 앞으로 나아갈 준비가 된 것입니다.

DeepSeek-R1 다운로드

Ollama가 설치되어 실행 중인 경우(ollama serve 나중에 설명할 다운로드가 실패한 경우 터미널에서) 이제 요구 사항과 하드웨어에 가장 적합한 DeepSeek 모델을 다운로드할 수 있습니다.

  • 1.5B 매개변수: 기본 컴퓨터에 이상적입니다. 이 모델은 대략 점유합니다 1.1 GB.
  • 7B 매개변수: 다음과 같은 장비에 권장됩니다. GPU 중간 높이. 이는 약 4.7 GB.
  • 70B 매개변수: 장비에 대한 복잡한 작업의 경우 큰 용량 메모리와 강력한 GPU.

표준 7B 모델을 다운로드하려면 터미널에서 다음 명령을 실행하세요.

올라마 런 Deepseek-R1

다운로드 시간은 인터넷 속도에 따라 다르며 챗봇을 처음 실행할 때만 필요합니다. 완료되면 명령줄이나 그래픽 인터페이스를 통해 모델을 사용할 수 있습니다.

그래픽 인터페이스로 DeepSeek 사용

터미널에서 직접 DeepSeek과 상호 작용할 수 있지만 많은 사용자는 편의를 위해 그래픽 인터페이스를 선호합니다. 이 경우 설치할 수 있습니다. 챗박스AI, DeepSeek을 활용할 수 있는 무료 애플리케이션입니다. 시각적 형태.

  • 다운로드 및 설치 챗박스AI 부터 공식 페이지.
  • 사용할 앱 설정 올라마 모델 공급업체로서:

ChatBoxAI 설정에서 "내 자체 API 사용"을 선택하고 이전에 다운로드한 DeepSeek 모델을 선택하세요. 모든 것이 올바르게 구성되면 그래픽 인터페이스에서 직접 쿼리와 작업을 수행할 수 있습니다.

프로젝트에 DeepSeek 통합

개발자라면 DeepSeek을 사용하여 프로젝트에 통합할 수 있습니다. API OpenAI 호환. 다음은 사용하는 간단한 예입니다. Python:

import openai 클라이언트 = openai.Client(base_url="http://localhost:11434/v1", api_key="ollama") 응답 = client.chat.completions.create(model="deepseek-r1", message=[{ "role": "user", "content": "Python에서 피보나치 계산을 위한 코드 생성"}])

이 스크립트는 로컬 DeepSeek 모델에 쿼리를 보내고 터미널이나 애플리케이션에 결과를 반환합니다.

DeepSeek-R1 AI 모델은 다음을 원하는 사람들에게 탁월한 옵션을 나타냅니다. 진보되고 경제적인 솔루션. Ollama가 제공하는 쉬운 액세스, 모델의 유연성, 맞춤형 프로젝트에 통합할 수 있는 기능을 통해 DeepSeek은 개발자, 학생 및 AI 전문가에게 새로운 가능성을 열어줍니다. 개인 정보 보호와 성능에 초점을 맞춘 이 도구는 철저하게 살펴볼 가치가 있는 도구입니다.


코멘트를 남겨주세요

귀하의 이메일 주소는 공개되지 않습니다. 필수 필드가 표시되어 있습니다 *

*

*

  1. 데이터 책임자 : Miguel Ángel Gatón
  2. 데이터의 목적 : 스팸 제어, 댓글 관리.
  3. 합법성 : 귀하의 동의
  4. 데이터 전달 : 법적 의무에 의한 경우를 제외하고 데이터는 제 XNUMX 자에게 전달되지 않습니다.
  5. 데이터 저장소 : Occentus Networks (EU)에서 호스팅하는 데이터베이스
  6. 권리 : 귀하는 언제든지 귀하의 정보를 제한, 복구 및 삭제할 수 있습니다.