יש לכם שאלה שחייתם לשאול AI — ופחדתם שמישהו מקליט? או ניסיתם לשחק עם מודל שלא מאפשר לכם לכתוב מה שאתם באמת רוצים?
Ollama פותרת את זה. היא מאפשרת להריץ מודלי AI ישירות על המחשב שלכם — ללא ענן, ללא שרתי חברה, ללא מי שמסתכל. הכל קורה אצלכם, על החומרה שלכם.
בדקנו אותה. ריצה אותה. ועכשיו אנחנו מסבירים לכם איך עושים את זה — מ-0 עד שיחה ראשונה — בעברית ובלי שטויות.
📋 תוכן עניינים
מה זה Ollama ולמה זה שונה מ-ChatGPT
כשאתם מדברים עם ChatGPT, הטקסט שלכם טס לשרתי OpenAI בארה"ב, מעובד שם, ועובר דרך מסנני תוכן שמחליטים מה מותר לכם לשאול ומה לא.
Ollama עובדת אחרת. המודל יורד למחשב שלכם — ורץ שם. לא ענן. לא שרתים. לא מסנן שמחכה לתפוס אתכם. הכל מקומי.
ההבדל הפרקטי? שלושה דברים:
פרטיות מלאה — שום חברה לא רואה את השיחות שלכם. אין מגבלות תוכן — המודל עונה לכם לפי היכולת שלו, לא לפי מדיניות שירות. עובד אופליין — אחרי שהמודל יורד, לא צריך אינטרנט בכלל.
למי זה מתאים
Ollama מתאימה לכם אם אתם נופלים לפחות באחת מהקטגוריות האלה:
אתם מפתחים שרוצים לשלב AI בפרויקט בלי לשלם לפי קריאת API. אתם כותבים שרוצים עוזר שלא ישפוט אתכם על הנושאים הרגישים שאתם מעלים. אתם סתם סקרנים שרוצים לשחק עם מודלי AI בלי להירשם לשום שירות.
התקנה — 3 צעדים ו-10 דקות
הורדה
נכנסים ל-ollama.com ולוחצים Download
התקנה
מריצים את קובץ ההתקנה — לוקח פחות מדקה
הורדת מודל
פותחים טרמינל וכותבים את הפקודה
על Mac ו-Linux
פותחים טרמינל (Terminal) ומריצים:
על Windows
מורידים את קובץ ה-.exe ישירות מהאתר ומתקינים כמו כל תוכנה רגילה. Windows 10 ומעלה — הכל עובד.
אחרי ההתקנה, Ollama רצה ברקע. לא תראו חלון פתוח — זה בסדר. כל האינטראקציה קורה דרך הטרמינל.
הרצה ראשונה — מה כותבים
אחרי ההתקנה, פותחים טרמינל ומריצים את הפקודה הזו. היא תוריד את המודל ותפתח שיחה:
הפעם הראשונה — המודל מתוריד (בין 4GB ל-8GB, תלוי בגרסה). אחרי זה? מיידי.
כשמופיע >>> — אתם בפנים. כתבו שאלה בעברית. Llama3 עונה בעברית. לא מושלם, אבל בהחלט שמיש.
/bye ומקישים Enter.
איזה מודל לבחור
ב-Ollama יש עשרות מודלים. הנה מה שבאמת שווה לנסות:
| מודל | גודל | חוזק | למי |
|---|---|---|---|
| llama3 | 4.7GB | שיחה כללית, עברית סבירה | כולם |
| mistral | 4.1GB | מהיר מאוד, אנגלית מצוינת | מתחילים |
| dolphin-mistral | 4.1GB | ללא מסנני תוכן, roleplay | מתקדמים |
| codellama | 3.8GB | קוד בלבד, Python/JS מצוין | מפתחים |
| llama3:70b | 40GB+ | איכות הכי גבוהה | GPU חזק |
להורדת מודל ספציפי — פשוט מריצים ollama run [שם המודל]. Ollama תוריד ותפעיל בפקודה אחת.
Open WebUI — ממשק גרפי ל-Ollama
הטרמינל מפחיד? יש פתרון. Open WebUI הוא ממשק ויזואלי שנראה בדיוק כמו ChatGPT — רק מחובר ל-Ollama המקומי שלכם.
מי שיש לו Docker מותקן — מריץ פקודה אחת ומקבל ממשק מלא בדפדפן:
אחרי זה נכנסים ל-localhost:3000 — וזהו. היסטוריית שיחות, ממשק נוח, בחירת מודל בקליק. הכל מקומי.
טיפים שיחסכו לכם כאב ראש
הכל קר בפעם הראשונה. הפקודה הראשונה לוקחת זמן כי המודל מתוריד. מהשנייה — רגעים בלבד.
עברית עובדת, אבל לא מושלמת. Llama3 עונה בעברית אבל לפעמים עובר לאנגלית באמצע. כדי לאלץ עברית — כתבו בתחילת הפרומפט: "ענה בעברית בלבד."
RAM נגמר? עברו למודל קטן יותר. במקום llama3 — mistral. זה לא פשרה גדולה מבחינת איכות.
רוצים לנסות מודלים ללא מסנני תוכן? dolphin-mistral ו-dolphin-llama3 הם הפופולריים ביותר לשימוש חופשי — ואפשר להריץ אותם בדיוק אותו דבר עם ollama run dolphin-mistral.
ואם אתם מחפשים חוויה אינטראקטיבית יותר — לא רק שיחת טקסט אלא כלים שמיועדים לתוכן מבוגרים — יש לנו סקירה נפרדת של כלי AI אינטראקטיביים למבוגרים שבנויים בדיוק לזה.
שאלות נפוצות
האם Ollama חינמית לחלוטין?
כן. Ollama היא תוכנה פתוח-קוד וחינמית לצמיתות. גם המודלים הפופולריים כמו Llama3 ו-Mistral הם חינמיים לחלוטין — מורידים פעם אחת ומריצים כמה שרוצים.
כמה RAM צריך כדי להריץ Ollama?
לרוב המודלים של 7B פרמטרים — 8GB RAM מספיק, אבל 16GB יותר נוח. מודלים גדולים (13B ומעלה) דורשים 16GB ומעלה. אם יש GPU — זה מגביר את המהירות משמעותית אבל לא חובה.
האם Ollama עובדת על Windows?
כן. Ollama תומכת ב-Windows 10 ומעלה, macOS, ולינוקס. ההתקנה על Windows היא קובץ .exe רגיל — בדיוק כמו כל תוכנה אחרת.
האם אפשר לדבר עם Ollama בעברית?
כן, מודלים כמו Llama3 מבינים עברית ועונים בה. האיכות לא מושלמת — לפעמים המודל עובר לאנגלית — אבל כתיבת "ענה בעברית בלבד" בתחילת כל פרומפט פותרת את רוב המקרים.
מה ההבדל בין Ollama ל-LM Studio?
שניהם מריצים AI מקומי. Ollama מבוססת על שורת פקודה — פשוטה, מהירה, ומתאימה למפתחים. LM Studio מגיעה עם ממשק גרפי מלא — יותר ידידותי למי שלא רגיל לטרמינל. בפועל, רבים מריצים את Ollama מאחורה ומשתמשים ב-Open WebUI כממשק.
האם Ollama שומרת את השיחות שלי?
לא. Ollama רצה לחלוטין על המחשב שלכם. שום דבר לא נשלח לחוץ. אין שרתים שמאזינים, אין חברה שמאחסנת את הפרומפטים שלכם. זו אחת הסיבות המרכזיות שאנשים בוחרים בה.
עוד מאמרים בנושא AI בסביבה פתוחה:
LM Studio מקומי עם ממשק גרפי מלא מדריך
בשעה: 9:24 am