Πώς να εκτελέσετε ένα LLM τοπικά στο Mac σας

0
12
Πώς να εκτελέσετε ένα LLM τοπικά στο Mac σαςΠώς να εκτελέσετε ένα LLM τοπικά στο Mac σας

Αναρωτηθήκατε ποτέ αν θα μπορούσατε να τρέξετε κάτι σαν το ChatGPT τοπικά στο Mac σας χωρίς να χρειάζεται το Διαδίκτυο; Με λίγη εγκατάσταση, μπορείτε πραγματικά. Και αυτό δωρεάν. Είτε θέλετε να διατηρήσετε τις συνομιλίες σας ιδιωτικές ή απλά θέλετε πρόσβαση εκτός σύνδεσης στο AI, εδώ μπορείτε να εκτελέσετε ισχυρά μεγάλα γλωσσικά μοντέλα τοπικά στο Mac σας.

Πώς να εκτελέσετε ένα LLM τοπικά στο Mac σαςΠώς να εκτελέσετε ένα LLM τοπικά στο Mac σας
#image_title

Τι χρειάζεστε για να εκτελέσετε ένα LLM τοπικά σε Mac;

Πριν βυθίσουμε και ελέγξουμε τη ρύθμιση, εδώ είναι αυτό που θα χρειαστείτε:

Γίνετε κύριος του iOS 18:

Λάβετε το αποκλειστικό μας iOS 18 eBook 📚 δωρεάν Όταν εγγραφείτε στο ενημερωτικό δελτίο μας παρακάτω.

  • Ένα Mac με πυρίτιο της Apple (M1, M2 ή M3 συνιστάται)
  • Τουλάχιστον 8GB RAM (16GB ή περισσότερο είναι καλύτερη)
  • Περίπου 4-10 GB ελεύθερου χώρου δίσκου (ανάλογα με το μοντέλο)
  • Μια λειτουργική σύνδεση στο Διαδίκτυο (μόνο για εγκατάσταση)
  • Βασική εξοικείωση με τη χρήση της εφαρμογής τερματικού MacOS (δεν χρειάζεται να είστε επαγγελματίας)

Πώς να εκτελέσετε ένα LLM τοπικά σε Mac

Θα χρησιμοποιήσουμε ένα δωρεάν εργαλείο που ονομάζεται Ollama, το οποίο σας επιτρέπει να κατεβάσετε και να εκτελέσετε LLMS τοπικά με μερικές εντολές. Εδώ είναι πώς να ξεκινήσετε:

Βήμα 1: Εγκαταστήστε το homebrew (παραλείψτε εάν έχετε ήδη εγκατασταθεί)

Το Homebrew είναι ένας διαχειριστής πακέτων για macOS που σας βοηθά να εγκαταστήσετε εφαρμογές από την εφαρμογή Terminal. Εάν έχετε ήδη εγκαταστήσει το Homebrew στο Mac σας, μπορείτε να παραλείψετε αυτό το βήμα. Αλλά αν δεν το κάνετε, εδώ μπορείτε να το εγκαταστήσετε:

  1. Ανοίξτε την εφαρμογή Terminal από το LaunchPad ή το Spotlight.
  2. Αντιγράψτε και επικολλήστε την ακόλουθη εντολή και πατήστε επιστροφή:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
  1. Περιμένετε να ολοκληρωθεί η εγκατάσταση. Μπορεί να χρειαστούν λίγα λεπτά. Μόλις ολοκληρωθεί, ελέγξτε αν λειτουργεί πληκτρολογώντας:
brew doctor

Εάν βλέπετε “το σύστημά σας είναι έτοιμο να παρασκευάσει”, είστε καλοί να πάτε.


Μετά την ολοκλήρωση της διαδικασίας εγκατάστασης Homebrew είναι έτοιμη να χρησιμοποιηθεί στο Mac "Το σύστημά σας είναι έτοιμο να παρασκευάσει" μήνυμα στην εφαρμογή Terminal MacOS κατά την εγκατάσταση του Homebrew.Μετά την ολοκλήρωση της διαδικασίας εγκατάστασης Homebrew είναι έτοιμη να χρησιμοποιηθεί στο Mac "Το σύστημά σας είναι έτοιμο να παρασκευάσει" μήνυμα στην εφαρμογή Terminal MacOS κατά την εγκατάσταση του Homebrew.

Εάν έχετε προβλήματα ή θέλετε μια πιο λεπτομερή διαδικασία βήμα προς βήμα, ελέγξτε τον οδηγό μας για το πώς να εγκαταστήσετε το Homebrew σε Mac.

Βήμα 2: Εγκαταστήστε και εκτελέστε το Ollama

Τώρα που το Homebrew είναι εγκατεστημένο και έτοιμο για χρήση στο Mac σας, ας εγκαταστήσουμε το Ollama:

  1. Σε ένα παράθυρο τερματικού, εκτελέστε:
brew install ollama
  1. Μετά την εγκατάσταση, ξεκινήστε την υπηρεσία Ollama τρέχοντας:
ollama serve

Αφήστε αυτό το παράθυρο να ανοίξει ή να το ελαχιστοποιήσει. Αυτή η εντολή διατηρεί το Ollama να τρέχει στο παρασκήνιο.

Εναλλακτικά, κατεβάστε το Εφαρμογή Ollama και να το εγκαταστήσετε όπως κάθε κανονική εφαρμογή MAC. Μόλις ολοκληρωθεί, ανοίξτε την εφαρμογή και συνεχίστε να τρέχετε στο παρασκήνιο.


Χρησιμοποιώντας το κουμπί λήψης στον ιστότοπο Ollama για να κατεβάσετε την εφαρμογή του σε MacΧρησιμοποιώντας το κουμπί λήψης στον ιστότοπο Ollama για να κατεβάσετε την εφαρμογή του σε Mac

Βήμα 3: Κατεβάστε και εκτελέστε ένα μοντέλο

Το Ollama σας δίνει πρόσβαση σε δημοφιλή LLMS όπως το Deepseek, το Llama Meta, το Mistral, το Gemma και πολλά άλλα. Δείτε πώς μπορείτε να επιλέξετε και να εκτελέσετε ένα:

  1. Επισκεφτώ το Σελίδα αναζήτησης Ollama Για να βρείτε όλα τα μοντέλα AI, μπορείτε να τρέξετε τοπικά μέσω του Ollama στο Mac σας.
    Σελίδα αναζήτησης Ollama με μια λίστα με όλα τα συμβατά LLMSΣελίδα αναζήτησης Ollama με μια λίστα με όλα τα συμβατά LLMS
  2. Επιλέξτε το μοντέλο LLM που θέλετε να εγκαταστήσετε. (Χρησιμοποιώ το Deepseek-R1 καθώς είναι ένα μικρό μοντέλο που διαρκεί μόνο 1,1 GB χώρου και είναι αποτελεσματικό.)
    Επιλέξτε ένα LLM για εγκατάσταση στη σελίδα αναζήτησης OllamaΕπιλέξτε ένα LLM για εγκατάσταση στη σελίδα αναζήτησης Ollama
  3. Στη σελίδα αυτή, θα βρείτε μια εντολή όπως αυτή: ollama run [model-name]. Είναι διαφορετικό για διαφορετικά μοντέλα.
  • Για το μοντέλο Deepseek R1 1.5b: ollama run deepseek-r1:1.5b
  • Για το μοντέλο LLAMA 3: ollama run llama3
  • Για Mistral: ollama run mistral
  1. Αντιγράψτε και επικολλήστε αυτήν την εντολή στο παράθυρο του τερματικού. Την πρώτη φορά που το τρέχετε αυτό, ο Ollama θα κατεβάσει το μοντέλο. Αυτό μπορεί να διαρκέσει λίγα λεπτά ανάλογα με την ταχύτητα του διαδικτύου σας.
    Εκτέλεση του μοντέλου Deepseek R1 μέσω Ollama στην εφαρμογή MacOS Terminal AppΕκτέλεση του μοντέλου Deepseek R1 μέσω Ollama στην εφαρμογή MacOS Terminal App
  2. Μόλις μεταφορτωθεί το μοντέλο, θα δείτε μια προτροπή για να πληκτρολογήσετε την είσοδο σας. Τώρα συνομιλείτε με το μοντέλο!

Εάν επιλέξετε ένα μεγάλο μοντέλο, περιμένετε κάποια καθυστέρηση – μετά από όλα, ολόκληρο το μοντέλο λειτουργεί τοπικά στο MacBook σας. Τα μικρότερα μοντέλα ανταποκρίνονται γρηγορότερα, αλλά μπορούν να αγωνιστούν με ακρίβεια, ειδικά για καθήκοντα μαθηματικών και λογικών. Επίσης, θυμηθείτε ότι, δεδομένου ότι αυτά τα μοντέλα δεν έχουν πρόσβαση στο διαδίκτυο, δεν μπορούν να λάβουν πληροφορίες σε πραγματικό χρόνο.

Τούτου λεχθέντος, για πράγματα όπως ο έλεγχος της γραμματικής, η γραφή μηνυμάτων ηλεκτρονικού ταχυδρομείου ή οι ιδέες του brainstorming, εργάζονται εξαιρετικά. Έχω χρησιμοποιήσει εκτενώς το Deepseek-R1 στο MacBook μου με μια ρύθμιση UI Web, η οποία μου επιτρέπει επίσης να ανεβάσω εικόνες και να επικολλήσω τα αποσπάσματα κώδικα. Ενώ οι απαντήσεις του-και ειδικά οι δεξιότητές του κωδικοποίησης-δεν είναι τόσο απότομες όσο τα μοντέλα κορυφαίων επιπέδων όπως το ChatGPT ή το Deepseek 671B, παίρνει ακόμα τα περισσότερα καθημερινά καθήκοντα που γίνονται χωρίς να χρειάζονται το Διαδίκτυο.

Βήμα 4: Συνομιλία με το μοντέλο στο Terminal

Μόλις εκτελεστεί το μοντέλο, μπορείτε απλά να πληκτρολογήσετε το μήνυμά σας και να επιστρέψετε. Το μοντέλο θα ανταποκριθεί παρακάτω.

Για να βγείτε από τη συνεδρία, πατήστε Control+D στο πληκτρολόγιό σας. Όταν θέλετε να ξεκινήσετε ξανά να συνομιλείτε, απλώς χρησιμοποιήστε το ίδιο ollama run [model-name] εντολή. Δεδομένου ότι το μοντέλο έχει ήδη ληφθεί, θα ξεκινήσει αμέσως.


Συνομιλία με το Deepseek R1 μέσω Ollama στην εφαρμογή Terminal MacOSΣυνομιλία με το Deepseek R1 μέσω Ollama στην εφαρμογή Terminal MacOS

Βήμα 5: Προβολή και διαχείριση εγκατεστημένων μοντέλων

Για να ελέγξετε ποια μοντέλα κατεβάζονται επί του παρόντος, εκτελέστε:

ollama list


Προβολή ενός φωτισμού από όλα τα εγκατεστημένα LLMs σε MacΠροβολή ενός φωτισμού από όλα τα εγκατεστημένα LLMs σε Mac

Για να διαγράψετε ένα μοντέλο που δεν χρειάζεστε πια, χρησιμοποιήστε:

ollama rm [model-name]

Μπόνους: Χρησιμοποιήστε το Ollama με ένα UI στο διαδίκτυο

Ενώ η Ollama τρέχει στο τερματικό, ξεκινά επίσης μια τοπική υπηρεσία API στο http: // localhost: 11434, επιτρέποντάς σας να το συνδέσετε σε μια διεπαφή ιστού για οπτική αλληλεπίδραση με τα μοντέλα – παρόμοια με τη χρήση ενός chatbot. Μια δημοφιλής επιλογή για αυτό είναι το Open Webui, το οποίο παρέχει μια φιλική προς το χρήστη διεπαφή πάνω από τη βασική λειτουργικότητα του Ollama. Ας δούμε πώς να το ρυθμίσετε.

Βήμα 1: Εγκαταστήστε το Docker

Το Docker είναι ένα εργαλείο που σας επιτρέπει να συσκευάσετε ένα πρόγραμμα και όλα τα βασικά του στοιχεία σε ένα φορητό δοχείο, ώστε να μπορείτε να το εκτελέσετε εύκολα σε οποιαδήποτε συσκευή. Θα το χρησιμοποιήσουμε για να ανοίξουμε μια διαδικτυακή διεπαφή συνομιλίας για το μοντέλο AI.

Εάν το Mac σας δεν το έχει ήδη, ακολουθήστε αυτά τα βήματα για να εγκαταστήσετε το Docker:

  1. Κατεβάζω Επιφάνεια εργασίας Για το Mac σας, εκτελέστε το και ακολουθήστε τις οδηγίες στην οθόνη για να ολοκληρώσετε την εγκατάσταση.
  2. Ξεκινήστε την εφαρμογή Docker και συνδεθείτε.
  3. Ανοίξτε το τερματικό και πληκτρολογήστε την παρακάτω εντολή για επιβεβαίωση της εγκατάστασης:
docker --version


Έλεγχος εάν το Docker είναι εγκατεστημένο σε Mac μέσω της εφαρμογής τερματικούΈλεγχος εάν το Docker είναι εγκατεστημένο σε Mac μέσω της εφαρμογής τερματικού

Εάν η εντολή επιστρέψει έναν αριθμό έκδοσης, σημαίνει ότι το Docker είναι εγκατεστημένο στο Mac σας.

Βήμα 2: Τραβήξτε την ανοιχτή εικόνα webui

Το Open Webui είναι ένα απλό εργαλείο που σας δίνει ένα παράθυρο συνομιλίας στο πρόγραμμα περιήγησής σας. Το τράβηγμα της εικόνας σημαίνει απλώς τη λήψη των αρχείων που απαιτούνται για την εκτέλεση.

Για να το κάνετε αυτό, μεταβείτε στην εφαρμογή τερματικού και πληκτρολογήστε:

docker pull ghcr.io/open-webui/open-webui:main

Αυτό θα κατεβάσει τα απαραίτητα αρχεία για τη διεπαφή.

Βήμα 3: Εκτελέστε το δοχείο Docker και ανοίξτε το webui

Τώρα, ήρθε η ώρα να τρέξετε το ανοιχτό webui χρησιμοποιώντας το Docker. Θα δείτε μια καθαρή διεπαφή όπου μπορείτε να συνομιλήσετε με το AI -No Terminal που χρειάζεται. Εδώ πρέπει να κάνετε:

  1. Ξεκινήστε το δοχείο Docker με επίμονη αποθήκευση δεδομένων και χαρτογραφημένες θύρες:
docker run -d -p 9783:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main


Ξεκινώντας ένα δοχείο Docker με αποθήκευση δεδομένων μέσω της εφαρμογής τερματικού MacOSΞεκινώντας ένα δοχείο Docker με αποθήκευση δεδομένων μέσω της εφαρμογής τερματικού MacOS

  1. Περιμένετε μερικά δευτερόλεπτα για να ξεκινήσει το δοχείο.
  2. Ανοίξτε το πρόγραμμα περιήγησής σας και μεταβείτε στο:
http://localhost:9783/
  1. Δημιουργήστε έναν λογαριασμό όταν σας ζητηθεί και θα ανακατευθύνετε στην κύρια διεπαφή.


Deepseek r1 που τρέχει μέσα στο ανοιχτό webui σε MacDeepseek r1 που τρέχει μέσα στο ανοιχτό webui σε Mac

Από εδώ, μπορείτε να συνομιλήσετε με οποιοδήποτε εγκατεστημένο μοντέλο σε μια καθαρή, φιλική προς το χρήστη διεπαφή προγράμματος περιήγησης. Αυτό το βήμα είναι προαιρετικό, αλλά σας δίνει μια ομαλότερη εμπειρία συνομιλίας χωρίς να χρησιμοποιήσετε το τερματικό.

Το Mac σας, το AI: Χωρίς διακομιστές, χωρίς χορδές

Αυτό είναι! Σε λίγα βήματα, έχετε ρυθμίσει το Mac σας για να εκτελέσετε ένα ισχυρό μοντέλο AI εντελώς εκτός σύνδεσης. Δεν υπάρχουν λογαριασμοί, κανένα σύννεφο και δεν χρειάζεται Διαδίκτυο μετά τη ρύθμιση. Είτε θέλετε ιδιωτικές συνομιλίες, τοπική παραγωγή κειμένου, ή απλά θέλετε να πειραματιστείτε με LLMS, το Ollama το καθιστά εύκολο και προσβάσιμο – ακόμη και αν δεν είστε προγραμματιστής. Δίνω μιά προσπάθεια!

Ελέγξτε επίσης αυτούς τους χρήσιμους οδηγούς:

  • Πώς να εκτελέσετε εφαρμογές Android στο Mac
  • Πώς να προβάλλετε εγγραφή στο Mac σας
  • Πώς να εγκαταστήσετε το Git στο Mac σας
Γίνετε κύριος του iOS 18:

Λάβετε το αποκλειστικό μας iOS 18 eBook 📚 δωρεάν Όταν εγγραφείτε στο ενημερωτικό δελτίο μας παρακάτω.