Cara memasang dan menggunakan DeepSeek-R1 secara tempatan pada komputer anda, sama ada anda menggunakan Ubuntu atau mana-mana sistem lain

  • DeepSeek-R1 ialah model sumber terbuka dengan keupayaan penaakulan lanjutan.
  • Ollama memudahkan pemasangan dan pengurusan model AI secara tempatan.
  • ChatBoxAI menawarkan antara muka grafik untuk berinteraksi dengan model seperti DeepSeek.
  • Model ini boleh disepadukan dengan mudah ke dalam projek pembangunan dengan Python.

DeepSeek-R1 pada Ubuntu

Kecerdasan buatan terus mengubah dunia kita, dan pilihan untuk bekerja dengan model bahasa lanjutan semakin berkembang dengan pesat. Walau bagaimanapun, tidak semua orang perlu menyambung kepada perkhidmatan awan atau bergantung pada pihak ketiga untuk meneroka teknologi ini. Alternatif yang menarik dan boleh diakses ialah DeepSeek-R1, model AI yang membolehkan pengguna menjalankannya secara setempat pada komputer sederhana. Dalam artikel ini, saya akan menerangkan cara memasang DeepSeek dan memanfaatkan sepenuhnya keupayaannya.

DeepSeek-R1 ialah a model AI sumber terbuka yang menonjol kerana kecekapan dan kapasiti penaakulan lanjutannya. Dengan menjalankannya secara tempatan, anda bukan sahaja menjimatkan kos berulang, tetapi anda juga melindungi privasi anda dan memperoleh fleksibiliti untuk menyepadukannya ke dalam projek tersuai. Walaupun sesetengah model memerlukan perkakasan berkuasa, DeepSeek-R1 menawarkan versi yang ditala untuk sumber yang berbeza, daripada komputer asas kepada stesen kerja lanjutan.

Apakah DeepSeek dan mengapa menggunakannya secara tempatan?

DeepSeek-R1 ialah a model bahasa lanjutan yang direka untuk tugas yang kompleks seperti penaakulan logik, menyelesaikan masalah matematik dan menjana kod. Kelebihan utamanya ialah ia adalah sumber terbuka, yang bermaksud anda boleh memasang dan menjalankannya pada komputer anda sendiri tanpa bergantung pada pelayan luaran.

Beberapa ciri yang ketara termasuk:

  • Fleksibiliti: Anda boleh menyesuaikan model mengikut keperluan anda, daripada versi ringan kepada konfigurasi lanjutan.
  • Privasi: Semua pemprosesan dilakukan secara tempatan, mengelakkan kebimbangan mengenai pendedahan data sensitif. Ini mungkin perkara yang paling penting, kerana ramai yang bimbang tentang perkara yang boleh dilakukan oleh syarikat dengan data kami.
  • Simpanan: Anda tidak perlu mengeluarkan wang untuk langganan atau perkhidmatan awan, menjadikannya pilihan yang berpatutan untuk pembangun dan perniagaan.

Keperluan untuk pemasangan

Sebelum memulakan pemasangan, pastikan anda mematuhi perkara berikut keperluan:

  • Komputer dengan sistem pengendalian Linux, macOS atau Windows (dengan sokongan untuk WSL2 dalam kes kedua).
  • Minimum GB RAM 8, walaupun ia disyorkan sekurang-kurangnya 16 GB untuk prestasi yang optimum.
  • Akses Internet untuk memuat turun model pada mulanya.
  • Pengetahuan asas terminal atau baris arahan.

Selain itu, anda perlu memasang alat yang dipanggil Ollama, yang mengurus dan menjalankan model DeepSeek secara tempatan.

Pemasangan Ollama

Ollama ialah penyelesaian mudah yang membolehkan anda memuat turun dan menjalankan model bahasa seperti DeepSeek-R1. Untuk memasangnya, ikuti langkah berikut:

  1. Pada Linux atau macOS, buka terminal dan jalankan arahan berikut untuk memasang Ollama — pakej curl Ia perlu, jelas -:
curl -fsSL https://ollama.com/install.sh | sh
  1. Pada sistem Windows, pastikan anda telah mendayakan WSL2 terlebih dahulu dan kemudian ikuti langkah yang sama dalam terminal Ubuntu yang anda konfigurasikan dalam WSL.
  2. Sahkan bahawa Ollama telah dipasang dengan betul dengan menjalankan ollama --version. Jika arahan itu mengembalikan nombor versi, anda sudah bersedia untuk bergerak ke hadapan.

Muat Turun DeepSeek-R1

Dengan Ollama dipasang dan berjalan (ollama serve dalam terminal jika muat turun yang kami terangkan kemudian gagal), kini anda boleh memuat turun model DeepSeek yang paling sesuai dengan keperluan dan perkakasan anda:

  • Parameter 1.5B: Sesuai untuk komputer asas. Model ini menduduki kira-kira 1.1 GB.
  • Parameter 7B: Disyorkan untuk peralatan dengan GPU sederhana tinggi. Ini menduduki kira-kira 4.7 GB.
  • Parameter 70B: Untuk tugasan kompleks pada peralatan dengan kapasiti besar memori dan GPU berkuasa.

Untuk memuat turun model 7B standard, jalankan arahan ini dalam terminal:

Olama Run Deepseek-R1

Masa muat turun bergantung pada kelajuan Internet anda dan hanya diperlukan pada kali pertama kami menjalankan chatbot. Setelah selesai, model akan sedia untuk digunakan daripada baris arahan atau melalui antara muka grafik.

Menggunakan DeepSeek dengan antara muka grafik

Walaupun anda boleh berinteraksi dengan DeepSeek terus dari terminal, ramai pengguna lebih suka antara muka grafik untuk kemudahan. Dalam kes ini, anda boleh memasang ChatBoxAI, aplikasi percuma yang akan membolehkan anda memanfaatkan DeepSeek daripada bentuk visual.

  • muat turun dan pasang ChatBoxAI daripada laman rasmi.
  • Tetapkan apl untuk digunakan Ollama sebagai pembekal model:

Dalam tetapan ChatBoxAI, pilih "Gunakan API saya sendiri" dan pilih model DeepSeek yang anda muat turun sebelum ini. Jika semuanya dikonfigurasikan dengan betul, anda akan dapat melaksanakan pertanyaan dan tugasan terus daripada antara muka grafik.

Penyepaduan DeepSeek ke dalam projek

Jika anda seorang pembangun, anda boleh menyepadukan DeepSeek ke dalam projek anda menggunakannya API Serasi OpenAI. Berikut adalah contoh mudah menggunakan Python:

import klien openai = openai.Client(base_url="http://localhost:11434/v1", api_key="ollama") respons = client.chat.completions.create(model="deepseek-r1", messages=[{ "role": "user", "content": "Jana kod dalam Python untuk mengira Fibonacci"}])

Skrip ini akan menghantar pertanyaan kepada model DeepSeek tempatan dan mengembalikan hasilnya dalam terminal atau aplikasi anda.

Model AI DeepSeek-R1 mewakili pilihan yang sangat baik untuk mereka yang mencari penyelesaian yang maju dan menjimatkan. Dengan kemudahan akses yang Ollama sediakan, fleksibiliti modelnya, dan keupayaan untuk menyepadukan ke dalam projek tersuai, DeepSeek membuka kemungkinan baharu untuk pembangun, pelajar dan pakar AI. Dengan tumpuannya pada privasi dan prestasi, ia adalah alat yang patut diterokai secara menyeluruh.


Tinggalkan komen anda

Alamat email anda tidak akan disiarkan. Ruangan yang diperlukan ditanda dengan *

*

*

  1. Bertanggungjawab atas data: Miguel Ángel Gatón
  2. Tujuan data: Mengendalikan SPAM, pengurusan komen.
  3. Perundangan: Persetujuan anda
  4. Komunikasi data: Data tidak akan disampaikan kepada pihak ketiga kecuali dengan kewajiban hukum.
  5. Penyimpanan data: Pangkalan data yang dihoskan oleh Occentus Networks (EU)
  6. Hak: Pada bila-bila masa anda boleh menghadkan, memulihkan dan menghapus maklumat anda.