עוד מקבוצת סלטק | ערן מדר
ערן מדר

AI Rank אי ראנק

אי ראנק לוגו
המצפן שלך בעולם הבינה המלאכותית
הלוחש לגיפיטי
חדש ✨
הלוחש לגיפיטי
לחצו כאן ➔
דירוג אי‑ראנק: 4.3
Ollama — הרצת AI מקומי על המחשב, מדריך בעברית
AI מקומי Ollama מודלים פתוחים פרטיות

יש לכם שאלה שחייתם לשאול AI — ופחדתם שמישהו מקליט? או ניסיתם לשחק עם מודל שלא מאפשר לכם לכתוב מה שאתם באמת רוצים?

Ollama פותרת את זה. היא מאפשרת להריץ מודלי AI ישירות על המחשב שלכם — ללא ענן, ללא שרתי חברה, ללא מי שמסתכל. הכל קורה אצלכם, על החומרה שלכם.

[ai_cta_box]

בדקנו אותה. ריצה אותה. ועכשיו אנחנו מסבירים לכם איך עושים את זה — מ-0 עד שיחה ראשונה — בעברית ובלי שטויות.

מה זה Ollama ולמה זה שונה מ-ChatGPT

כשאתם מדברים עם ChatGPT, הטקסט שלכם טס לשרתי OpenAI בארה"ב, מעובד שם, ועובר דרך מסנני תוכן שמחליטים מה מותר לכם לשאול ומה לא.

Ollama עובדת אחרת. המודל יורד למחשב שלכם — ורץ שם. לא ענן. לא שרתים. לא מסנן שמחכה לתפוס אתכם. הכל מקומי.

Ollama בקצרה: תוכנה חינמית ופתוח-קוד שמאפשרת להוריד ולהריץ מודלי שפה גדולים (LLM — Large Language Models) על המחשב שלכם. מקינטוש, חלונות, לינוקס — הכל עובד.

ההבדל הפרקטי? שלושה דברים:

פרטיות מלאה — שום חברה לא רואה את השיחות שלכם. אין מגבלות תוכן — המודל עונה לכם לפי היכולת שלו, לא לפי מדיניות שירות. עובד אופליין — אחרי שהמודל יורד, לא צריך אינטרנט בכלל.

למי זה מתאים

Ollama מתאימה לכם אם אתם נופלים לפחות באחת מהקטגוריות האלה:

אתם מפתחים שרוצים לשלב AI בפרויקט בלי לשלם לפי קריאת API. אתם כותבים שרוצים עוזר שלא ישפוט אתכם על הנושאים הרגישים שאתם מעלים. אתם סתם סקרנים שרוצים לשחק עם מודלי AI בלי להירשם לשום שירות.

⚠️ דרישות מינימום: מחשב עם לפחות 8GB RAM לריצת מודל 7B. 16GB עדיף. GPU לא חובה — המחשב יריץ את זה על ה-CPU, רק קצת יותר לאט.

התקנה — 3 צעדים ו-10 דקות

שלושה צעדים להתקנת Ollama — הורדה, התקנה, הרצה
1

הורדה
נכנסים ל-ollama.com ולוחצים Download

2

התקנה
מריצים את קובץ ההתקנה — לוקח פחות מדקה

3

הורדת מודל
פותחים טרמינל וכותבים את הפקודה

על Mac ו-Linux

פותחים טרמינל (Terminal) ומריצים:

curl -fsSL https://ollama.com/install.sh | sh

על Windows

מורידים את קובץ ה-.exe ישירות מהאתר ומתקינים כמו כל תוכנה רגילה. Windows 10 ומעלה — הכל עובד.

אחרי ההתקנה, Ollama רצה ברקע. לא תראו חלון פתוח — זה בסדר. כל האינטראקציה קורה דרך הטרמינל.

הרצה ראשונה — מה כותבים

אחרי ההתקנה, פותחים טרמינל ומריצים את הפקודה הזו. היא תוריד את המודל ותפתח שיחה:

ollama run llama3

הפעם הראשונה — המודל מתוריד (בין 4GB ל-8GB, תלוי בגרסה). אחרי זה? מיידי.

כשמופיע >>> — אתם בפנים. כתבו שאלה בעברית. Llama3 עונה בעברית. לא מושלם, אבל בהחלט שמיש.

טיפ: כדי לצאת מהשיחה — כותבים /bye ומקישים Enter.

איזה מודל לבחור

ב-Ollama יש עשרות מודלים. הנה מה שבאמת שווה לנסות:

מודל גודל חוזק למי
llama3 4.7GB שיחה כללית, עברית סבירה כולם
mistral 4.1GB מהיר מאוד, אנגלית מצוינת מתחילים
dolphin-mistral 4.1GB ללא מסנני תוכן, roleplay מתקדמים
codellama 3.8GB קוד בלבד, Python/JS מצוין מפתחים
llama3:70b 40GB+ איכות הכי גבוהה GPU חזק

להורדת מודל ספציפי — פשוט מריצים ollama run [שם המודל]. Ollama תוריד ותפעיל בפקודה אחת.

Ollama מול ChatGPT — השוואה מלאה

Open WebUI — ממשק גרפי ל-Ollama

הטרמינל מפחיד? יש פתרון. Open WebUI הוא ממשק ויזואלי שנראה בדיוק כמו ChatGPT — רק מחובר ל-Ollama המקומי שלכם.

מי שיש לו Docker מותקן — מריץ פקודה אחת ומקבל ממשק מלא בדפדפן:

docker run -d -p 3000:80 –add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data –name open-webui –restart always ghcr.io/open-webui/open-webui:main

אחרי זה נכנסים ל-localhost:3000 — וזהו. היסטוריית שיחות, ממשק נוח, בחירת מודל בקליק. הכל מקומי.

לא יודעים מה זה Docker? אל תיבהלו — בגרסה הבאה נעשה מדריך נפרד. בינתיים, הטרמינל עובד מצוין.

טיפים שיחסכו לכם כאב ראש

הכל קר בפעם הראשונה. הפקודה הראשונה לוקחת זמן כי המודל מתוריד. מהשנייה — רגעים בלבד.

עברית עובדת, אבל לא מושלמת. Llama3 עונה בעברית אבל לפעמים עובר לאנגלית באמצע. כדי לאלץ עברית — כתבו בתחילת הפרומפט: "ענה בעברית בלבד."

RAM נגמר? עברו למודל קטן יותר. במקום llama3 — mistral. זה לא פשרה גדולה מבחינת איכות.

רוצים לנסות מודלים ללא מסנני תוכן? dolphin-mistral ו-dolphin-llama3 הם הפופולריים ביותר לשימוש חופשי — ואפשר להריץ אותם בדיוק אותו דבר עם ollama run dolphin-mistral.

ואם אתם מחפשים חוויה אינטראקטיבית יותר — לא רק שיחת טקסט אלא כלים שמיועדים לתוכן מבוגרים — יש לנו סקירה נפרדת של כלי AI אינטראקטיביים למבוגרים שבנויים בדיוק לזה.

רוצים לראות עוד כלי AI שבדקנו?

סקירות מעמיקות, ניסיון אמיתי, בלי שטויות — הכל בעברית.

לכל הסקירות של AIRANK

שאלות נפוצות

האם Ollama חינמית לחלוטין?

כן. Ollama היא תוכנה פתוח-קוד וחינמית לצמיתות. גם המודלים הפופולריים כמו Llama3 ו-Mistral הם חינמיים לחלוטין — מורידים פעם אחת ומריצים כמה שרוצים.

כמה RAM צריך כדי להריץ Ollama?

לרוב המודלים של 7B פרמטרים — 8GB RAM מספיק, אבל 16GB יותר נוח. מודלים גדולים (13B ומעלה) דורשים 16GB ומעלה. אם יש GPU — זה מגביר את המהירות משמעותית אבל לא חובה.

האם Ollama עובדת על Windows?

כן. Ollama תומכת ב-Windows 10 ומעלה, macOS, ולינוקס. ההתקנה על Windows היא קובץ .exe רגיל — בדיוק כמו כל תוכנה אחרת.

האם אפשר לדבר עם Ollama בעברית?

כן, מודלים כמו Llama3 מבינים עברית ועונים בה. האיכות לא מושלמת — לפעמים המודל עובר לאנגלית — אבל כתיבת "ענה בעברית בלבד" בתחילת כל פרומפט פותרת את רוב המקרים.

מה ההבדל בין Ollama ל-LM Studio?

שניהם מריצים AI מקומי. Ollama מבוססת על שורת פקודה — פשוטה, מהירה, ומתאימה למפתחים. LM Studio מגיעה עם ממשק גרפי מלא — יותר ידידותי למי שלא רגיל לטרמינל. בפועל, רבים מריצים את Ollama מאחורה ומשתמשים ב-Open WebUI כממשק.

האם Ollama שומרת את השיחות שלי?

לא. Ollama רצה לחלוטין על המחשב שלכם. שום דבר לא נשלח לחוץ. אין שרתים שמאזינים, אין חברה שמאחסנת את הפרומפטים שלכם. זו אחת הסיבות המרכזיות שאנשים בוחרים בה.

עוד מאמרים בנושא AI בסביבה פתוחה:

LM Studio מקומי עם ממשק גרפי מלא מדריך

נכתב על ידי: תמר בן‑דוד
מעצבת שמתרגמת AI לעיצובים נוחים ושימושיים.
אודות הכותב
פורסם בתאריך: מרץ 9, 2026
בשעה: 9:24 am

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *