רוני המורה מסבירה צעד-צעד איך לכתוב prompts שעובדים בעברית. שמונה עקרונות, דוגמאות מוחשיות, וטכניקות שמשפיעות על תוצאה אמיתית.
רוני המורה
צוות BestAI
12 במאי 20266 דקות קריאה
ב-12 במאי 2026 אני יושבת לכתוב את המדריך שאני נותנת בכל סדנה: prompt engineering בעברית, צעד-צעד, בלי קסמים. למה זה חשוב במיוחד לאנשי AI בישראל? כי ChatGPT, Claude ו-Gemini מבינים עברית טוב, אבל הם לא קוראים מחשבות. ההבדל בין תשובה מצוינת לבין זבל הוא לרוב 3-4 דקות של עריכת prompt. הנה איך עושים את זה נכון.
רוב האנשים חושבים שכתיבת prompt היא אמנות. זה לא. זה מקצוע ניתן ללמידה, עם עקרונות ברורים ושיטה. כל מי שכתב 20 prompts ובחן את התוצאות, יכול לרכוש את הבסיס בשבועיים.
סקירה מהירה
prompt engineering = ניסוח הוראות למודל שפה כדי לקבל תוצאה עקבית ומדויקת.
בעברית זה חשוב במיוחד: עברית היא 1-2% מנתוני האימון של המודלים המובילים.
שמונה עקרונות בסיסיים מספיקים ל-90% מהמקרים. אין טכניקה סודית.
איטרציה היא חלק מהתהליך. 3-5 גרסאות זה הנורמה, לא חריג.
מקור התמונה: developers.openai.com
מה זה prompt engineering ולמה זה לא רק "לבקש יפה"
prompt engineering (הנדסת פרומפטים) הוא תהליך של עיצוב הוראות למודל שפה גדול (LLM, מודל שפה גדול) כדי שייתן את התוצאה הרצויה, באופן עקבי, ובפחות איטרציות. זה לא קסם וזה לא טריקים.
זה ניסוח של בקשה כך שהמודל יודע: מי הוא צריך להיות, מה המשימה, מה הקלט, מה הפלט הרצוי, ומה אסור לו לעשות.
לפי המדריך הרשמי של OpenAI ושל Anthropic, prompt engineering חוסך עלויות, מגדיל דיוק, ומפחית הזיות (hallucinations). זו לא דעה שלי, אלה ההמלצות של החברות שמייצרות את המודלים.
בעברית זה חשוב כפליים. מודלים מודרניים אומנו בעיקר על אנגלית. עברית היא בערך 1-2 אחוזים מנתוני האימון של המודלים הגדולים. בלי prompt מובנה היטב, המודל יחזור לדיפולט שלו, שהוא לרוב אנגלית או תרגום מילולי שנשמע מוזר.
בצוותי מוצר שאני יועצת להם בישראל, המעבר מ-prompts חובבניים ל-prompts מהונדסים מקצר זמן עבודה ב-30 עד 50 אחוזים. זה לא נתון אקדמי, זה מה שראיתי בשטח. סטארטאפ פינטק בהרצליה שיעצתי לו במרץ 2026 הקטין את זמן הכתיבה של תיאורי מוצר מ-25 דקות לפריט ל-7 דקות לפריט, רק בזכות תבנית prompt אחת מסודרת.
תשעה מתוך עשרה כישלונות שאני רואה בסדנאות שלי מקורם בצעד אחד שדילגו עליו. זה לא טכניקה מתקדמת, זה ההתחלה עצמה.
מה תצטרכו לפני שמתחילים
לפני שכותבים prompt ראשון, צריך שלושה דברים בלבד:
מודל לעבודה איתו. אני ממליצה להתחיל עם Claude או ChatGPT בגרסה החינמית או בגרסת Plus ב-$20/חודש (כ-75 ש"ח כולל מע"מ). אם אתם רוצים להשוות, פתחו שני tabs במקביל ושלחו את אותו prompt לשניהם.
מטרה ברורה. מה אתם רוצים לקבל? תשובה לשאלה? קוד? סיכום מסמך? פוסט שיווקי? בלי מטרה תקבלו "סוגי תשובות אפשריים".
דוגמה אחת לפלט הרצוי. אפילו דוגמה לא-מושלמת עדיפה על אין דוגמה. המודל לומד ממנה את הסגנון, האורך, ומבנה התשובה.
זה הכל. לא צריך API, לא צריך ידע בתכנות, לא צריך כלי מיוחד. רק חלון צ'אט וסבלנות לאיטרציה.
הצעד החשוב ביותר, וזה שעליו אנשים מדלגים הכי הרבה. במקום לכתוב "כתוב לי מאמר על AI", כתבו prompt מובנה:
תפקיד: עורך תוכן בעיתון כלכלי ישראלי, מתמחה ב-AI.
משימה: כתוב מאמר חדשות של 600 מילים על השקת מודל חדש.
קהל: מנהלי מוצר בחברות הייטק בישראל.
טון: ענייני, ביקורתי, עם דוגמאות קונקרטיות.
פלט: HTML עם h2, h3, ופסקאות של 3-4 משפטים.
ההבדל בין הגישה הזו לבין "כתוב לי מאמר" הוא הבדל של פי 10 באיכות. ניסיתי את זה במאות סדנאות. תמיד עובד.
הטכניקה הזו נקראת role prompting ומתועדת בPrompt Engineering Guide של DAIR.AI כאחת היעילות ביותר. היא לא דורשת ידע טכני, רק חשיבה רגע לפני הכתיבה: מי המודל צריך להיות כדי לעזור לי, ומי הקהל שלי?
צעד 2: הוסיפו הקשר, דוגמאות, ומבנה פלט
המודל לא יודע על איזה context אתם עובדים, אלא אם אתם מספרים לו. הוא לא יודע איפה אתם, מי הלקוחות, ומה הקול של המותג שלכם.
הוסיפו ל-prompt שלכם:
הקשר עסקי: "אנחנו חברת SaaS B2B עם 50 עובדים, פועלים בישראל ובארה"ב, מוכרים לתעשיית הפינטק."
דוגמאות few-shot: "הנה דוגמה לכתיבה מצוינת: [מצורף]. הנה דוגמה לכתיבה גרועה ולמה היא גרועה: [מצורף]."
מבנה הפלט: "החזר JSON עם השדות: title, summary, body, tags." או: "החזר HTML עם h2 ופסקאות בלבד."
זו טכניקה שנקראת few-shot learning, ולפי המחקר של OpenAI על GPT-3 משנת 2020, היא מעלה דיוק במשימות מסוימות ב-15 עד 30 אחוזים מול zero-shot (בקשה ללא דוגמאות).
"שלוש דוגמאות טובות בתוך ה-prompt עדיפות על שעה של ויכוח עם המודל." זה משפט שאני אומרת בכל סדנה, ולא הולכת להפסיק.
צעד 3: איטרציה ושיפור (refinement)
prompt טוב לא נכתב פעם אחת. הוא מתפתח על פני 3-5 איטרציות. מי שמצפה ל-prompt מושלם בנסיון הראשון, מתבלבל בין AI לקסם.
המתודולוגיה שאני מלמדת:
כתבו prompt ראשוני, אפילו פשוט.
הריצו. קראו את התשובה במלואה.
מצאו את הבעיה: האם המודל לא הבין? הבין אבל ענה במבנה שגוי? הוסיף מידע שאתם לא בטוחים שנכון?
עדכנו את ה-prompt בצורה ספציפית: הוסיפו דוגמה, הוסיפו "אל תעשה X", הוסיפו דרישת אורך מדויקת.
חזרו על השלבים 2 עד 4 עד שהתשובה טובה.
אחרי 3 עד 5 איטרציות יש לכם prompt שעובד. שמרו אותו במסמך משותף. השתמשו בו שוב. אל תכתבו אותו מחדש בכל פעם.
טכניקות מתקדמות שכדאי להכיר
אחרי שיש לכם בסיס, אפשר להוסיף טכניקות נקודתיות שמשפרות תוצאה במשימות ספציפיות.
טכניקה
מתי להשתמש
איך
Chain-of-thought
חישוב, לוגיקה, ניתוח רב-שלבי
הוסיפו "תחשבו צעד-צעד לפני התשובה"
Few-shot
פלט בפורמט ספציפי
הוסיפו 3 עד 5 דוגמאות לפני הבקשה
Role prompting
התמחות בתחום מסוים
"אתה מומחה ב-X עם 10 שנות נסיון"
Negative prompting
למנוע התנהגות
"אל תעשה X, אל תשתמש במונח Y"
Output structure
פלט שצריך לעבד אוטומטית
"החזר JSON עם השדות..."
לפי המסמכים של Anthropic, הטכניקה היעילה ביותר ב-Claude היא שימוש ב-XML tags לסימון מקטעי ה-prompt. למשל: <context>...</context> ו-<instructions>...</instructions>. זה לא חובה ב-ChatGPT, אבל ב-Claude זה מעלה דיוק משמעותית.
ב-marketing אומרים שצריך "את ה-prompt המושלם". בפועל, צריכים שלושה prompts פחות-מושלמים שכל אחד מתמחה במשימה אחת.
Prompt engineering מול fine-tuning: מה לבחור
יש לכם שאלה? בונים משהו ולא יודעים להמשיך?
קהילת BestAI בוואטסאפ, מאות יזמים ובעלי עסקים שמשתמשים ב-AI. שואלים, עונים, משתפים.
שאלה שאני מקבלת כמעט בכל פגישת ייעוץ: למה לא פשוט לעשות fine-tuning למודל במקום להתעסק כל הזמן ב-prompts? התשובה תלויה בנפח השימוש, בתקציב, ובסוג המשימה.
fine-tuning דורש מאות עד אלפי דוגמאות מתויגות באיכות גבוהה, ידע ב-ML, וזמן הכשרה של ימים. העלות הישירה נעה בין 100$ ל-1,000$ למודל בודד, ועוד עלות תחזוקה כשהמודל הבסיסי מתעדכן. הוא מתאים כשמשימה ספציפית חוזרת על עצמה אלפי פעמים ביום, או כשצריך שליטה מלאה בסגנון ובדומיין.
prompt engineering, לעומת זאת, עולה אפס דולר נוסף, ניתן לעדכון בשניות, ומתאים ל-95% מהמקרים בארגונים קטנים ובינוניים בישראל. מתוך כ-40 חברות הייטק שיעצתי להן בשנתיים האחרונות, רק שתיים באמת זקוקות ל-fine-tuning. השאר השיגו תוצאות מצוינות עם prompts בלבד, פעמים רבות בשילוב עם RAG.
מה זה אומר ל-3 סוגי קהל בישראל
העקרונות זהים לכולם, אבל הדגשים שונים לפי תפקיד. הנה ההמלצה הספציפית שלי:
אנשי שיווק ותוכן: השקיעו ב-role prompting וב-few-shot עם 5-10 דוגמאות מהמותג שלכם. ROI טיפוסי שראיתי בסוכנויות בתל אביב: חיסכון של 4-6 שעות בשבוע על פוסטים, מיילים, ותיאורי מוצר.
מפתחים: התמקדו ב-structured output (JSON, XML) וב-chain-of-thought לדיבאג. בצוות backend שאני עובדת איתו ברעננה, prompt מובנה למשימת code review חוסך 30 דקות לכל PR, ומגלה כ-20% יותר באגים מהבדיקה הידנית הקודמת.
מנהלי מוצר ומייסדים: הוסיפו תמיד הקשר עסקי (שוק, יריבים, KPIs) ובקשו מהמודל לחשוב כמשתמש קצה ספציפי. prompts לניתוח שוק או user research חוסכים יום עבודה שלם בכל ספרינט.
Troubleshooting: מה לעשות כשה-prompt לא עובד
זה לא יעבוד מהפעם הראשונה. סביר שגם לא מהשנייה. הנה רשימה לזיהוי מהיר של הבעיה והפתרון:
המודל ענה באנגלית. הוסיפו: "ענה אך ורק בעברית, גם אם השאלה באנגלית."
המודל הוסיף מבוא ארוך מיותר. הוסיפו: "התחל ישר מהתשובה. אל תכתוב 'בשמחה' או הקדמה."
המודל המציא מידע (hallucination). הוסיפו: "אם אינך יודע, אמור 'אינני יודע'. אל תמציא נתונים, תאריכים, או ציטוטים."
המודל קצר מדי. ציינו אורך מדויק: "תשובה של לפחות 400 מילים, מינימום 3 פסקאות."
המודל ארוך מדי. ציינו: "תשובה של עד 150 מילים, פסקה אחת."
המודל לא עקב אחרי המבנה. תנו לו דוגמה מלאה אחת של פלט תקין.
המודל חוזר על עצמו. הוסיפו: "כל פסקה חייבת להציג רעיון חדש."
לפי המדריך הרשמי של OpenAI, רוב הכישלונות מקורם בחוסר ספציפיות. ככל שהבקשה ספציפית יותר, התוצאה טובה יותר. זה נשמע מובן, אבל מעט אנשים באמת מיישמים את זה.
טריק שאני אוהבת: כשמשהו לא עובד, שאלו את המודל עצמו. "למה התעלמת מההוראה לכתוב בעברית?" המודל לרוב יסביר, ואז תדעו מה לתקן ב-prompt.
BestAI Take
מכירים מישהו שבנה אפליקציה ב-Lovable או Bolt?
שתפו אותם לפני שהם ממשיכים לשלם ולחכות שגוגל ימצא אותם
אני מלמדת prompt engineering כבר שלוש שנים. מה שאני רואה אצל אלפי תלמידים ישראלים הוא אותו דפוס בדיוק: כולם מחפשים את הטכניקה הסודית. אין כזו. יש שמונה עקרונות בסיסיים: תפקיד, משימה, קהל, הקשר, דוגמאות, מבנה פלט, אורך, ואיטרציה.
מי שמיישם את שמונת אלה מקבל תשובות מצוינות ב-90% מהמקרים. מי שמחפש prompt קסום ימשיך להתלונן ש"ה-AI לא עובד". זה לא ה-AI, זה ה-prompt. ראו את המדריך שלנו ב-BestAI על LLMs בעברית כדי להבין למה זה חשוב כל כך. צוותים בישראל שמיישמים את העקרונות האלה חוסכים שעות בכל שבוע. זה לא קסם, זה מקצוע ניתן ללמידה, ובעברית זה אפילו יותר חשוב מאשר באנגלית.
שאלות נפוצות
›האם prompt engineering נחוץ אם המודלים נעשים חכמים יותר?
שאלה שאני שומעת בכל סדנה. התשובה: כן, ובמידה הולכת וגדלה. ככל שהמודלים יותר חזקים, ההבדל בין prompt חלש לחזק נעשה יותר משמעותי, לא פחות. מודל חזק עם prompt חלש ייתן תשובה גנרית, ארוכה, ומפוזרת. מודל חזק עם prompt טוב יחזיר בדיוק את מה שביקשתם, במבנה הרצוי, בלי הזיות. מעבר לזה, מודלים חזקים יותר תומכים בהוראות מורכבות יותר. מי שיודע לתת הוראות מורכבות מנצל את היכולת המלאה של המודל, ומי שלא יודע, נשאר ברמת 'תן לי תשובה'. ההשקעה בלימוד prompt engineering היא ההשקעה עם ה-ROI הכי גבוה בעבודה עם AI.
›האם prompts בעברית עובדים שונה מ-prompts באנגלית?
כן, ולא תמיד באופן ברור מראש. עברית מהווה בערך 1-2% מנתוני האימון של מודלים גדולים כמו Claude ו-ChatGPT. זה אומר שלמודל פחות 'אינטואיציה' לגבי ניסוחים בעברית, וסביר יותר שהוא יחזור לדיפולט באנגלית. בפועל זה מתבטא בשלושה דברים: פלט שמערב מלים באנגלית גם כשביקשתם רק עברית, ניסוחים שנשמעים מתורגמים מאנגלית, ופחות הבנה של ניואנסים תרבותיים ישראליים. הפתרון הוא prompts ארוכים יותר, יותר דוגמאות בעברית, ובקשה מפורשת כמו 'ענה אך ורק בעברית, ללא מלים באנגלית, בסגנון עיתונאי ישראלי'. אל תניחו שהמודל יבין את ההקשר התרבותי, תכתבו אותו במפורש.
›מתי כדאי להשתמש ב-few-shot prompting ומתי לא?
few-shot הוא יעיל במיוחד כשרוצים פלט במבנה ספציפי, סגנון מסוים, או טון מדויק. דוגמאות מוצלחות לשימוש: פלט JSON, סיווג טקסטים, תרגום בסגנון מסוים, סיכומים באורך אחיד, וטון של מותג ספציפי. מתי לא? כשהמשימה דורשת יצירתיות חופשית, כי דוגמאות גורמות למודל לחקות במקום ליצור. גם לא מומלץ כשה-context window שלכם קטן והדוגמאות יתפסו מקום שהיה צריך להקדיש לתוכן עצמו. כלל אצבע מהשטח: 3 דוגמאות מועילות, 5 דוגמאות יעילות, מעל 10 דוגמאות בדרך כלל מבזבזות tokens בלי לשפר תוצאה. בחרו דוגמאות מגוונות שמכסות מקרי קצה, לא דוגמאות זהות.
›איך לשמור prompts מוצלחים ולנהל ספרייה של prompts?
אחרי שמצאתם prompt שעובד, אל תאבדו אותו. אני ממליצה על שלוש שכבות. ראשית, מסמך Notion או Google Docs פשוט עם כותרות לפי משימה (כתיבה, ניתוח, תרגום, קוד). שנית, prompts פרמטריים: שמרו את ה-template עם משתנים כמו {{topic}}, {{audience}}, {{tone}}, כדי שתוכלו לעשות replace מהיר. שלישית, גרסאות: שמרו את ה-prompts הקודמים, גם אלה שלא עבדו, עם הערה למה לא עבדו. למידה מכישלון היא חצי מהמקצוע. כלים ייעודיים כמו PromptHub או Helicone מתאימים לצוותי dev. לפרילנסרים ולעובדים בודדים, מסמך פשוט עם תיוג נכון מספיק לחלוטין ועדיף על שום מערכת.
›כמה זמן לוקח להגיע לרמה סבירה ב-prompt engineering?
מהשטח אני יכולה לומר בביטחון: רמת בסיס תפקודית מושגת תוך שבועיים של תרגול יומיומי, כשעה ביום. רמת בינוני, שבה אתם פותרים 80% מהמשימות לבד בלי תסכול, דורשת חודש עד חודשיים. רמת מומחה, שבה אתם בונים prompts לאחרים, מתחזקים ספריות, ומאמנים צוותים, דורשת חצי שנה לפחות עם תרגול עקבי. הטעות הנפוצה היא לחשוב שצריך קורס מסודר או הכשרה פורמלית. בפועל, הדרך המהירה ביותר היא לבחור משימה אחת שאתם עושים בעבודה כל יום, ולנסות לפתור אותה עם AI במשך שבועיים רצופים. רשמו כל prompt שניסיתם, מה עבד, מה לא, ולמה. אחרי שבועיים יש לכם הרגלים. אחרי חודשיים יש לכם מתודולוגיה. בסדנאות שלי בישראל אני רואה את התבנית הזו חוזרת שוב ושוב, ללא קשר לגיל, לרקע המקצועי, או לרמת ההיכרות הקודמת עם AI.
›האם עדיף להשתמש ב-prompt engineering או ללמוד fine-tuning?
ההמלצה שלי לרוב הקוראים: התחילו עם prompt engineering, ועברו ל-fine-tuning רק אם הגעתם לתקרה ברורה. מתוך 40 חברות הייטק שיעצתי להן בשנתיים האחרונות, רק 2 באמת היו צריכות fine-tuning. השאר השיגו את היעדים שלהן עם prompts בלבד, פעמים רבות בשילוב עם RAG (Retrieval-Augmented Generation). fine-tuning עולה בין 100$ ל-1,000$ למודל, דורש מאות דוגמאות מתויגות, ידע ב-ML, וזמן תחזוקה. prompt engineering עולה אפס, מתעדכן בשניות, ומספיק ל-95% מהמקרים. הסיגנל שכן צריך fine-tuning: אתם מריצים את אותה משימה בדיוק עשרות אלפי פעמים ביום, עלות ה-API נעשית משמעותית, או שאתם צריכים סגנון/דומיין כל כך ספציפי שאי אפשר להסביר אותו בכמה דוגמאות.