מאת: שרון גונן
מה גיליתי כשביקשתי מ-3 מודלי שפה של AI לעשות Deep
Research, לנתח
ולסכם את אותו נושא?
אודות הכותבת:
שרון גונן עוסקת
בטרנספורמציה דיגיטלית ויצירת ערך בחברות באמצעות בינה מלאכותית.
מיישמת
כלי בינה מלאכותית מותאמים לצרכי הארגון ומטרותיו, מובילה פרויקטים מאסטרטגיה ועד
ביצוע ומייצרת ערך עסקי ומענה לאתגרים, באמצעות פתרונות טכנולוגיים, נוחים ליישום
והטמעה מהירה.
תקציר
איך
בוחרים מודל שפה למחקרי עומק ומעריכים את התוצאות שהוא מספק? ביקשתי משלושה מודלי
בינה מלאכותית (Perplexity Pro Deep Research, GPT-4 Deep
Research ו-Grok-3) לסכם ולנתח את הנושא: "דיפ סטייט בישראל". בעזרת Claude
(Anthropic) יצרתי ניתוח השוואתי מקיף שחושף הטיות
סמויות.
התוצאות? מפתיעות
ומלמדות.
כל
מודל הציג את הנושא באופן שונה. מה שהפתיע אותי במיוחד, הוא כיצד כל מודל
"דוחף" את הקורא לכיוון חשיבה מסוים - לעתים באופן סמוי ותחת מעטה של
אובייקטיביות.
ההשוואה
מתמקדת באספקטים שונים של הסיכומים, כגון מבנה, תוכן, סגנון, נקודת מבט ושימוש
במקורות.
Perplexity מספק מודל תיאורטי מובנה
ונתונים כמותיים מרשימים
GPT מצטיין בעושר הדוגמאות, באיזון וברוחב
היריעה ההיסטורית
Grok מצטיין בהצגת מורכבות הנושא ובפתיחות
לפרשנויות שונות
למאמר המעמיק
של שרון גונן ( קישור)
חלק שני
מה
גיליתי כשביקשתי גם מ-Gemini
2.0 DeepResearch, לנתח ולסכם את אותו נושא שנתתי ל-Perplexity
Pro Deep Research, GPT-4 Deep Research ו-Grok-3?
בעוד GPT-4 בלט בעושר דוגמאות ספציפיות וציטוטים, ו-Perplexity בלט בנתונים כמותיים, סיכום Gemini נשאר ברמה כללית יותר.
איכות
המקורות נמוכה יחסית לכל הסיכומים האחרים, עם הסתמכות יתר על ויקיפדיה. מספר
המקורות (23) גבוה מ-GPT-4 ו-Grok אך נמוך מ-Perplexity
(63).
למאמר השני של שרון גונן ( קישור2)
אין תגובות:
הוסף רשומת תגובה