Πώς να εκτελείτε τοπικά μοντέλα AI σε Windows με το Ollama
Μπορείτε να εκτελέσετε μοντέλα AI όπως το ChatGPT τοπικά στον υπολογιστή σας χωρίς σύνδεση στο διαδίκτυο. Πολλές υπηρεσίες σας βοηθούν σε αυτή τη διαδικασία. Ωστόσο, θα το δείξουμε χρησιμοποιώντας το Olama.
Λήψη και εγκατάσταση του Olama
Βήμα 1: Μεταβείτε στο Ιστοσελίδα Olama και κάντε κλικ στο κουμπί Λήψη.
Βήμα 2: Επιλέξτε το λειτουργικό σας σύστημα και κάντε κλικ στο Λήψη.
Βήμα 3: Κάντε διπλό κλικ στο ληφθέν αρχείο > κάντε κλικ στην Εγκατάσταση > ακολουθήστε τις οδηγίες εγκατάστασης.
Μόλις εγκατασταθεί, θα πρέπει να δείτε ένα αναδυόμενο παράθυρο που λέει ότι το Ollama εκτελείται.
Βήμα 4: Εκκινήστε το τερματικό σας. Στα Windows, πατήστε Windows + R, πληκτρολογήστε cmd και πατήστε Enter.
Βήμα 5: Κατεβάστε το πρώτο σας μοντέλο AI χρησιμοποιώντας την παρακάτω εντολή. Βεβαιωθείτε ότι έχετε αντικαταστήσει το μοντέλο με ένα πραγματικό μοντέλο στο Ollama. Αυτά μπορεί να είναι Llama 3, Phi 3, Mistral, Gemma, κ.λπ. Να είστε υπομονετικοί. αυτό μπορεί να διαρκέσει λίγο.
Ollama pull model
Τρόπος επικοινωνίας με μοντέλα λήψης στο Olama
Τώρα που έχετε εγκαταστήσει το μοντέλο AI, μπορείτε να επικοινωνήσετε μαζί του. Αυτό είναι παρόμοιο με την επικοινωνία με Gemini ή ChatGPT AI από τις διεπαφές ιστού. Ακολουθήστε τα παρακάτω βήματα.
Βήμα 1: Εκκινήστε το Terminal στον υπολογιστή σας.
Βήμα 2: Πληκτρολογήστε την παρακάτω εντολή. Μπορείτε να αντικαταστήσετε το llama3 στην εντολή για το όνομα του μοντέλου που κατεβάσατε.
Ollama run llama3
Βήμα 3: Τέλος, πληκτρολογήστε την προτροπή σας και πατήστε Enter όπως θα κάνατε στο ChatGPT ή στο Gemini. Στη συνέχεια, θα πρέπει να μπορείτε να αλληλεπιδράτε με το AI.
FAQ
Μπορείτε να εκτελέσετε το Generative AI τοπικά;
Ναι, μπορείτε, και επί του παρόντος, η σταθερή διάχυση είναι το πιο αξιόπιστο μέσο. Εργαλεία όπως Stable Diffusion WebUI και InvokeAI δώστε πρόσβαση στο Stable Diffusion για τοπική δημιουργία εικόνων.