OpenAI מציץ לתוך "הקופסה השחורה" של רשתות עצביות עם מחקר חדש

תמונה שנוצרה על ידי בינה מלאכותית של רובוטים מסתכלים בתוך מוח מלאכותי.
לְהַגדִיל/ תמונה שנוצרה על ידי בינה מלאכותית של רובוטים מסתכלים בתוך מוח מלאכותי.

דיפוזיה יציבה

ביום שלישי, OpenAI יצא לאור מאמר מחקר חדש המפרט טכניקה שמשתמשת בה GPT-4 מודל שפה לכתיבת הסברים להתנהגות הנוירונים במבוגרים GPT-2 דגם, אם כי בצורה לא מושלמת. זהו צעד קדימה עבור "פרשנות", שהוא תחום של AI המבקש להסביר מדוע רשתות עצביות יוצרות את התפוקות שהן עושות.

לקריאה נוספת

ה-GPT-4 של OpenAI מציג "ביצועים ברמת האדם" על אמות מידה מקצועיות

בעוד שדגמי שפה גדולים (LLMs) כובשים את עולם הטכנולוגיה, חוקרי בינה מלאכותית עדיין לא יודעים הרבה על הפונקציונליות והיכולות שלהם מתחת למכסה המנוע. במשפט הראשון של המאמר של OpenAI, כותבים המחברים, "מודלים של שפה הפכו ליכולים יותר ונפרסים יותר, אבל אנחנו לא מבינים איך הם עובדים."

עבור זרים, זה כנראה נשמע כמו הודאה מהממת מחברה שתלויה לא רק בהכנסות מ-LLMs אלא גם מקווה להאיץ אותם לרמות מעבר אנושיות של יכולת חשיבה.

אבל לתכונה הזו של "לא לדעת" בדיוק איך נוירונים בודדים של רשת עצבית עובדים יחד כדי לייצר את הפלטים שלה יש שם ידוע: הקופסה השחורה. אתה מזין את כניסות הרשת (כמו שאלה), ומקבלים פלטים (כמו תשובה), אבל מה שקורה ביניהם (בתוך "הקופסה השחורה") הוא תעלומה.

בניסיון להציץ לתוך הקופסה השחורה, חוקרים ב-OpenAI השתמשו במודל שפת ה-GPT-4 שלה כדי ליצור להעריך הסברי שפה טבעית להתנהגותם של נוירונים במודל שפה הרבה פחות מורכב, כגון GPT-2. באופן אידיאלי, קיום מודל AI בר-פירוש יעזור לתרום למטרה הרחבה יותר של מה שאנשים מסוימים מכנים "יישור AI", להבטיח שמערכות AI יתנהגו כמתוכנן וישקפו ערכים אנושיים. ועל ידי אוטומציה של תהליך הפרשנות, OpenAI מבקשת להתגבר על מגבלות המסורתיות בדיקה אנושית ידנית, שאינה ניתנת להרחבה עבור רשתות עצביות גדולות יותר עם מיליארדי פרמטרים.

אתר האינטרנט של העיתון כולל דיאגרמות המציגות את GPT-4 מנחש אילו אלמנטים של טקסט נוצרו על ידי נוירון מסוים ברשת עצבית.
לְהַגדִיל/ אתר האינטרנט של העיתון כולל דיאגרמות המציגות את GPT-4 מנחש אילו אלמנטים של טקסט נוצרו על ידי נוירון מסוים ברשת עצבית.
OpenAI

הטכניקה של OpenAI "מבקשת להסביר אילו דפוסים בטקסט גורמים להפעלת נוירון". המתודולוגיה שלה מורכבת משלושה שלבים:

  • הסבר את הפעלות הנוירון באמצעות GPT-4
  • הדמיית התנהגות הפעלת נוירונים באמצעות GPT-4
  • השווה את ההפעלות המדומות עם הפעלות אמיתיות.

כדי להבין איך השיטה של ​​OpenAI עובדת, אתה צריך לדעת כמה מונחים: נוירון, מעגל וראש קשב. ברשת עצבית, נוירון הוא כמו יחידת קבלת החלטות זעירה שמקבלת מידע, תהליכים זה, ומייצר פלט, בדיוק כמו תא מוח זעיר שמקבל החלטה על סמך האותות שהוא מקבל. מעגל ברשת עצבית הוא כמו רשת של נוירונים מחוברים זה לזה שעובדים יחד, מעבירים מידע וקבלת החלטות באופן קולקטיבי, בדומה לקבוצת אנשים המשתפת פעולה ומתקשרת כדי לפתור א בְּעָיָה. וראש קשב הוא כמו זרקור שעוזר למודל שפה לשים לב יותר למילים ספציפיות או חלקים של משפט, מה שמאפשר לו להבין טוב יותר וללכוד מידע חשוב תוך כדי עיבוד טֶקסט.

על ידי זיהוי נוירונים וראשי קשב ספציפיים בתוך המודל שיש לפרש, GPT-4 יוצר הסברים קריאים לאדם לתפקודם או לתפקידם של רכיבים אלה. זה גם מייצר ציון הסבר, אותו מכנה OpenAI "מדד ליכולת של מודל שפה לדחוס ולשחזר הפעלת נוירונים באמצעות טבעי שפה." החוקרים מקווים כי האופי הניתן לכימות של מערכת הניקוד יאפשר התקדמות מדידה לקראת הפיכת חישובי רשת עצבית למובנים לבני אדם.

אז כמה טוב זה עובד? כרגע, לא כזה נהדר. במהלך הבדיקה, OpenAI העמידה את הטכניקה שלה מול קבלן אנושי שביצע הערכות דומות באופן ידני, והם מצאו שגם GPT-4 וגם הקבלן האנושי "הניבו תוצאות גרועות במונחים מוחלטים", כלומר, פירוש הנוירונים הוא קָשֶׁה.

אחד ההסברים שהציגה OpenAI לכשל הזה הוא שהנוירונים עשויים להיות "פוליסמנטיים", כלומר נוירון טיפוסי בהקשר של המחקר עשוי להפגין משמעויות מרובות או להיות קשור למספר מושגים. בסעיף על מגבלות, חוקרי OpenAI דנים גם בתאי עצב פוליסמנטיים וגם ב"תכונות חייזרים" כמגבלות של השיטה שלהם:

יתר על כן, מודלים של שפה עשויים לייצג מושגים חייזרים שאין לבני אדם מילים עבורם. זה יכול לקרות כי למודלים של שפה אכפת מדברים שונים, למשל. מבנים סטטיסטיים שימושיים עבור משימות חיזוי אסימון הבא, או כי המודל גילה הפשטות טבעיות שבני אדם טרם גילו, למשל. איזו משפחה של מושגים מקבילים שונים דומיינים.

מגבלות אחרות כוללות היותו עתיר מחשוב ומתן הסברים קצרים בשפה טבעית בלבד. אבל חוקרי OpenAI עדיין אופטימיים שהם יצרו מסגרת למדיטציה במכונה הפרשנות והאמצעים הניתנים לכימות למדידת שיפורים בפרשנות ככל שהם משפרים את שלהם טכניקות בעתיד. ככל שמודלים של AI מתקדמים יותר, חוקרי OpenAI מקווים שהאיכות של ההסברים שנוצרו תשתפר, ויציעו תובנות טובות יותר לגבי הפעולה הפנימית של מערכות מורכבות אלה.

OpenAI פרסמה את עבודת המחקר שלה בנושא אתר אינטרנט אינטראקטיבי שמכיל פירוטים לדוגמה של כל שלב, המציג חלקים מודגשים של הטקסט וכיצד הם תואמים נוירונים מסוימים. בנוסף, OpenAI סיפקה קוד "פרשנות אוטומטית" ואת הקוד שלו GPT-2 XL נוירונים ומערכי נתונים של הסברים ב-GitHub.

אם הם אי פעם יבינו בדיוק למה ChatGPT ממציאה דברים, כל המאמץ יהיה שווה את זה.

ההודעה האחרונה בבלוג

ראש DARPA מעיד שארה"ב עשויה להתמודד בקרוב עם מחסור קריטי של חנונים
September 03, 2023

בעדות השבוע שעבר בפני הקונגרס, ד"ר רג'ינה דוגן, מנהלת DARPA, הזהירה את ועדת השירותים המזוינים של בית הנבחרים כי... בעדות השבוע שעבר בפני הקונגרס, ...

תהנה מלמידה לכל החיים עם מנוי לפלטפורמות הלמידה האלקטרוניות המובילות הללו
September 03, 2023

למידה היא המפתח לצמיחה. אנו עשויים להרוויח הכנסות מהמוצרים הזמינים בדף זה ולהשתתף בתוכניות שותפים. למד עוד >האנשים המצליחים ביותר בעולם לא מפסי...

ה-ABC של MP3
September 03, 2023

מוזיקה דיגיטלית רוצה להיות חבר שלך. בֶּאֱמֶת. כל מה שאתה צריך לדעת על איך אנחנו מקשיבים עכשיו. אנו עשויים להרוויח הכנסות מהמוצרים הזמינים בדף זה ו...