מודעות עצמית מלאכותית



מודעות עצמית מלאכותית

תארו לעצמכם שיום אחד נבנה רובוט שיהיה כל-כך חכם, שבשיחה עיוורת מולו אנשים לא ידעו להבדיל בין הרובוט לבין בן אדם. תארו לעצמכם רובוט שמתנהג כאילו הוא מודע לעצמו. האם זה נחשב יצור חי? האם לנתק אותו ייחשב לרצח? האם עלינו לתת לרובוט הזה זכויות? האם יש לו בחירה חופשית או שזאת רק אשליה?


מהי בינה מלאכותית וכיצד היא פועלת?

על השאלה הזאת ניתן לכתוב ספרים שלמים, אבל לצורך הפוסט אשתדל להסתפק בהסבר מתומצת. בינה מלאכותית היא תוכנת מחשב שיודעת לבצע משימות ספציפיות. לשחק שחמט, להמיר מילים מדוברות לכתובות, להפוך מסמכים סרוקים לטקסט שניתן לערוך, לזהות מה יש בתצלום אם זה עץ או כלב, לאבחן בעיות רפואיות על סמך ממצאי בדיקות, להציע לי איזה סרטון יוטיוב אני ארצה לראות על סמך סרטונים אחרים שכבר ראיתי, או איזה מוצר ארצה לקנות על סמך מוצרים אחרים שכבר קניתי, או היסטוריית החיפוש שלי בגוגל, או הדברים שאני מדבר עליהם עם אנשים אחרים כשאני חושב שהטלפון לא מקשיב. ולאחרונה, בינה מלאכותית יכולה לצייר ציור על סמך תיאור מילולי (כמו האילוסטרציה של הבלוג הזה), ואפילו לכתוב בלוג פוסט שהכותרת שלו הוא "מודעות עצמית מלאכותית" ואולי אתם קוראים את זה עכשיו מי יודע, בואו נחליף נושא?

אבל התיאור הזה הוא לא מה שמאפיין או ייחודי בבינה מלאכותית, כי בגדול כל תוכנת מחשב היא רשימת פקודות שמבצעת משימה מסוימת. אז מה ההבדל בין זה לבין למחשבון או עורך גרפי כמו פוטושופ? ההבדל הוא שבינה מלאכותית יכולה ללמוד ואילו תוכנה אחרת לא. תחשבו שאנחנו רוצים לכתוב תוכנת מחשב שיודעת לפתור סודוקו, איך נעשה זאת? תחילה נכתוב שיטה מדויקת, רשימת הוראות כיצד פותרים סודוקו. נכתוב תחת אילו תנאים הסודוקו הוא בלתי אפשרי לפתרון ואילו מהלכים הם לא חוקיים, ואז נהפוך את רשימת ההוראות, שבדרך כלל יראה כמו תרשים זרימה, לשפת תכנות כלשהי. נריץ את התוכנה, נעשה עליה בדיקות לוודא שהכל נכתב ללא טעויות ויש לנו תוכנה שיודעת לפתור סודוקו. אבל התוכנה הזאת לא תהיה בינה מלאכותית אלה דף הוראות - אלגוריתם. אם קיימת שיטה יותר טובה לפתור סודוקו התוכנה מעולם לא תשתמש בה. אם קיימת טעות שלא ראינו, התוכנה מעולם לא תתקן אתה. התוכנה תמיד תעקוב אחרי רשימת הוראות ברורה כתובה מראש ושום דבר לא ישתנה, לא המהירות שלה ולא איכות השיטה. 

לעומת זאת, מה שאנחנו יכולים לעשות זה לכתוב בינה מלאכותית שיודעת לפתור סודוקו. לבינה המלאכותית אין רשימת הוראות מסודרת אלה שהיא רק יודעת אם המספרים שהיא מציבה הם טובים או לא. התוכנה תתחיל את הליך הלימוד שלה מזה שהיא תנסה באופן עיוור ואקראי לחלוטין להציב מספרים בטבלה. בהתחשב שהיא לא מסוגלת לבצע מהלך לא חוקי, בהתחלה הבינה המלאכותית תתקשה מאוד לתפור את הסודוקו הראשון ואולי אפילו לא תצליח. אבל אם ניצור בה מנגנון שיודע ללמוד מטעויות מה שנקרא מנגנון של "פרסים" ו-”עונשים" לאט-לאט היא לא רק תלמד, אלה גם תפתח שיטה משלה. ועם הזמן היא תוכל לפתור סודוקו יותר מהר ויותר טוב מכל בן אדם.

כמובן שלא הסברתי כאן כיצד המנגנון של הלמידה פועל, כי בכל זאת אני כותב בלוג ולא ספר לימוד במדעי המחשב, אבל הרעיון הכללי הוא כזה: הבינה המלאכותית לומדת בעזרת דוגמאות מבוקרות. המנגנון לוקח את ההבדל המספרי בין התוצאה הרצויה לתוצאה שהוא הוציא, מחשב את המרחק הזה ומתקן את ההגדרות שלו בהתאם. תחשבו על זה כמו על משחק בו שחקן אחד חושב על מספר והשחקן השני צריך לנחש את המספר הזה. השחקן השני מתחיל ממספר אקראי והשחק הראשון מציג לו כרטיס עם הסימנים גדול, קטן, או שווה. אם שווה, אז כמובן שהשחקן ניצח, אם גדול או קטן, השחקן השני מתעדכן בהתאם ובניחוש הבא שלו הוא יזרוק מספר יותר גדול או יותר קטן. ככה הם ימשיכו עד שהשחקן השני ינחש את המספר הנכון. 


מודעות עצמית

באמצעות ניסויים מדעיים אמפיריים ניתן לבחון התנהגויות אשר מרמזות על מודעות עצמית. מה שאומר שרובוט מספיק חכם יכול לעבור את המבחנים האלה בהצלחה. אבל כמובן שלהיות מודע לעצמך באמת ולעבור מבחנים זה לא אותו הדבר. מודעות עצמית אמתית לא ניתן לבדוק, ניתן רק לבדוק את ההשלכות שלה. יתר על כך, אנחנו יכולים רק למדוד מודעות עצמית דומה לזו שלנו, אנחנו לא יכולים לדעת באמת אם קיימים רבדים או סוגים אחרים של מודעות עצמית. למשל, האם צמחים מודעים לעצמם? יש שלל ניסויים המוכיחים שיש לצמחים רגשות ואמצעי תקשורת זה עם זה. ידוע שהצמחים מגיבים לסביבה שלהם ואף ליצורים חיים אחרים.

עד כמה שהמדע מתקדם היום, הדבר אשר אנחנו יודעים הכי פחות עליו זה אנחנו עצמנו. אני יודע שאני מודע לעצמי, אבל אני אפילו לא בטוח אם אנשים מודעים לעצמם באמת, אני רק יכול לשאר שבגלל שאני כמוהם והם כמוני אז הם גם מודעים לעצמם כמו שאני מודע לעצמי. סרטים בסגנון המופע של טרומן או המטריקס עוסקים בשאלות של מודעות עצמית ומציאות. הם שואלים את השאלות - מה אם כולם סביבי שחקנים והחיים שלי זה שקר? מה אם אני בכלל מוח בצנצנת מחובר למחשב? 

עד כמה שהשאלות האלה מעניינות אני לא חושב שאיי פעם נדע את התשובה אליהם לכן הדבר הכי נכון לעשות בעיני זה לקבל את העולם כפי שהוא ולחיות את החיים כאילו הם אמתיים. כנ"ל גם לגבי מודעות עצמית של בני אדם אחרים, יש להתייחס אליהם כאילו הם בעלי מודעות עצמית שווה לשלי בגלל שלפי מה שאני רואה, ההתנהגות שלהם מציגה מודעות עצמית. ואפילו אם המציאות היא שאני האדם האמתי היחידי וכל השאר הם רובוטים, או סימולציה של מחשב, אפילו אם אני חי באשליה, אין לי דרך לצאת מההשליה הזאת אז הדבר הנכון לעשות הוא לקבל את ההשליה ולהפיק ממנה את המיטב. שזה דרך אגב בדיוק מה שניאו במטריקס עשה עד ליום פגישתו עם מורפיוס. אילו מורפיוס לא היה מספר לו שהכל זה מטריקס הוא היה גודל מזדקן ומת בסימולציה בלי לדעת את האמת. כלומר, שהמציאות מצאה אותו ולא הוא חיפש את המציאות. טרומן לעומת זאת חיפש את האמת לבד, אבל היו לו סיבות הגיוניות לחשוד שמשהו במציאות שלו מבויים. לנו כרגע אין סיבה לחשדות כאלה.

ופה אני מגיע לבעיה אתית מאוד קשה. אם מודעות עצמית של האחר היא עניין של התנהגות בלבד, זה אומר שתוכנה אשר מתנהגת כאילו היא מודעת לעצמה, עלי להתייחס אליה כאילו היא מודעת לעצמה. זה אומר שלנתק אותה שווה ערך לרצח. כמובן שהמסקנה הזאת היא אבסורדית כי בינה מלאכותית היא רק קוד מחשב. התוכנה הזאת לא יודעת מה היא אומרת ולא מבינה על מה היא מדברת אלה רק מבצעת חישובים מתמטיים מורכבים כדי להפיק משפטים שנשמעים הגיוניים. מצד שני המוח שלנו פועל באופן דומה. אנחנו רשת עצבית מורכבת הפועלת על תהליכים אלקטרו-כימיים. יש לנו סנסורים בכל הגוף העוזרים לנו לתקשר עם הסביבה שלנו, ואנחנו מורכבים מתאים ודנ"א. אז מה ההבדל בין מוח ביולוגי ללוח אם שפועל על חשמל, מעבד נתונים, ועשוי מטרנזיסטורים המודפסים על וופל סיליקון?

על מנת באמת לענות על השאלה הזאת צריך לחקור ולמצוא איזה רכיב במוח אחראי על מודעות עצמית. אך בכל שנות המחקר בנושא, רכיב זה טרם נמצא. כלומר - אף אחד לא באמת יודע. ישנם מחקרים רבים בנושא השפעת המוח על המודעות העצמית ועל הזיכרון. כיצד מרגישים אנשים ששרדו חבלות במוח, מחלות נוירולוגיות ונפשיות, ואפילו ניתוחים מורכבים להורדת חלקים מהמוח, או פיצול המוח לשתיים. היו גם מחקרים על תופעות יותר נדירות כמו תיאומים סיאמיים בעלי חלקי מוח משותפים, אנשים עיוורים שלא יודעים שהם עיוורים, ועוד תופעות מופלאות בסגנון. אך כל אלו ועוד הציגו שיש מודעות עצמית, והמוח משפיע עליה. אבל אף מחקר עוד לא ענה על השאלה מדוע יש לנו מודעות עצמית, מתי היא נוצרת וכיצד היא התפתחה בטבע. אף מחקר גם לא יודע לענות אילו יצורים חיים מודעים לעצמם ואילו לא, כי מודעות עצמית יכולה להיות ברבדים שאנחנו אפילו לא חשבנו לחקור בכיוון שלהם. [זאת דרך אגב הסיבה מדוע לאנשים המשוכנעים בזה שליקום אין בורא בעל מודעות עצמית, אני עונה שאין להם שום דרך לדעת זאת באמת ולכן הביטחון שלהם בדיעה הזאת הוא לא מבוסס. אנחנו לא יודעים אם העץ בחוץ מודע לעצמו, כיצד אנחנו יכולים להיות משוכנעים שהיקום לא מודע לעצמו? אבל זה כבר סיפור אחר].


נחזור לשאלה הראשונה

התחלתי את הפוסט מהשאלה: תארו לעצמכם שיום אחד נבנה רובוט שיהיה כל-כך חכם, שבשיחה עיוורת מולו אנשים לא ידעו להבדיל בין הרובוט לבין בן אדם. תארו לעצמכם רובוט שמתנהג כאילו הוא מודע לעצמו. האם זה נחשב יצור חי? ובכן, מחשב יכול לבצע משימות כתובות מראש, או לבצע משימות בעזרת אלגוריתם למידה שמעדכן את ההגדרות שלו באמצעות השוואה מתמטית של הפלט הרצוי, מול הפלט שהתקבל על ידי הצבת נתונים אקראיים. ניתן לשלב כמה רשתות נוירונים ביחד כדי לכתוב תוכנה בעלת יכולות מרובות כמו ChatGPT למשל. אבל אילו משימות יש לתת למחשב כדי לדמות מודעות עצמית? בשביל זה צריך לענות על השאלה כיצד מודדים מודעות עצמית? לשאלה הזאת אין תשובה אחידה אבל יש השארות רבות. דוגמא אחת יכולה להיות זיהוי עצמי במראה, מדידות פעילות מוחית, ותגובות התנהגותיות לטריגרים שונים. אני מאמין שאפילו עם הטכנולוגיה הזמינה לנו היום ניתן ללמד בינה מלאכותית לעבור את כל המבחנים האלה בהצלחה. 

דרך אחרת היא לתכנת רובוט שיעבור את מה שנקרא "מבחן טורינג", כאשר בן אדם לא ידע לזהות אם הוא מדבר עם רובוט או עם אדם אחר. אנחנו לא עוד שם, אבל ChatGPT ללא ספק פועל בכיוון הנכון. אך גם אם הרובוט יעבור את המבחן הזה, זה אומר שהוא למד היטב כיצד להגיב לטקסטים כתובים, לא שהוא באמת מבין על מה הוא מדבר. יש את ניסוי התיאורטי המפורסם הנקרא "חדר סיני" בו אדם אחד דובר מנדרינית שותפת כותב מכתבים לאדם אחר אשר משמעות המכתבים היא "סינית" בשבילו. אבל יש לאדם הזה ספר מדריך עם סמלים. ללא כל הסברים האדם עם המדריך עונה מכתבי תשובה לפי הסמלים שהוא מקבל. האדם הדובר מנדרינית חושב שהוא מדבר עם מישהו שגדל בסין כל חייו כאשר בפועל הוא מדבר עם בן אדם שלא מבין בכלל על מה השיחה אבל הוא יודע לעקוב אחרי הוראות כתובות. 

יתרה על כך, היכולת לנהל שיחה הגיונית לא מצביעה על מודעות עצמית. ניתן לנהל שיחה עם הים אפילו, כאשר הגלים הם התשובות. [למשל גלים גדולים הם תשובה חיובית ואילו גלים קטנים הם תשובה שלילית]. וגם, יש בני אדם שלא ניתן לנהל איתם שיחה הגיונית אך זה לא אומר שהם לא מודעים לעצמם.

אז מה באמת מצביע על מודעות עצמית אמתית? האם מחשב איי פעם יכול להשיג אותה? או שמודעות עצמית היא משהו מיסטי-אלהי שאין לנו שום סיכוי ליצור שלא בדרכים הטבעיות של פרייה ורביה.

נכון להיום מודעות עצמית נחשבת כתכונה ביולוגית ייחודית רק ליצורים חיים מבוססי פחמן. את המושג "פסיכולוגיה" ניתן לתרגם כמדעי הנפש (פסיכו – נפש, לוגיה – חקר). מדעי הפסיכולוגיה והנוירולוגיה עוסקים בחקר התסמינים ולא המקור. מדידת התנהגות, הרכב כימי, ומיפוי המוח לאזורים. זה כל מה שיש לנו היום. אנחנו לא יודעים איזה אזור אחראי על מודעות עצמית אלה רק כיצד המוח משפיע ומושפע ממנה. על מנת ליצור מודעות עצמית ממוחשבת עלינו להבין מה היא מודעות עצמית באמת וזה כרגע לא ניתן בכלים שיש לנו היום.


סיכום

בהתחשב לכל הנאמר, לדעתי התשובה היא שלפחות להיום - מחשב אשר מתנהג כאילו הוא מודע לעצמו הוא רק אלגוריתם שיכול לשקר במקצועיות, חדר סיני אם תרצו, אבל לא הדבר האמתי. נכון להיום אני לא מאמין שניתן לבנות מחשב מודע לעצמו כי אנחנו לא יודעים ממה נובעת מודעות עצמית אלה רק כיצד למדוד את ההשלכות שלה. על מנת ליצור מודעות עצמית מלאכותית אמתית עלינו להבין כיצד נוצרת מודעות עצמית טבעית וזה כרגע לא בגדר הדברים הידועים לנו. 

אך אין זה אומר שהבינה המלאכותית היא לא שימושית בדרכים אחרות. למעשה, הבינה המלאכותית כיום היא חלק בלתי נפרד מחיי היום-יום שלנו. בין אם אנחנו מדברים על העוזרת האישית בכל טלפון שמזכירה לנו דברים ועונה לנו על שאלות, אלגוריתם אשר עוזר לנו לבחור במה לצפות במדיה החברתית או מה לקנות, כלים כמו Dall-e ו-ChatGPT שהשתמשתי בהם כדי ליצור את האילוסטרציות לספרים שלי "חרב האש" ו-”צב הברזל" שניתן לקרוא אותם בבלוג השני שלי (ראו קישור בצד תחת בלוגים נוספים), ועוד מגוון רחב של כלי בינה מלאכותית אשר הופכים את החיים שלנו לקלים יותר.

יותר מזה, אני גם לא בטוח שליצור בינה מלאכותית מודעת לעצמה זה דבר טוב. כי אם נצליח ליצור יצור כזה, מה נעשה איתו? האם לנתק אותו זה רצח? האם צריך לתת לו זכויות? האם זה אתי בכלל? האם היוצרים שלו הם הורים? האם יש ליצור הזה חובה אזרחית? האם היצור הזה יכול לפשוע והאם ניתן להעניש אותו? כל אלו הם שאלות שיעלו במידה ונצליח ליצור מחשב מודה לעצמו אז האם שווה לנו אפילו לנסות? או שאולי עדיף לשמור את הבינה המלאכותית ככלי שימושי וליצור פתרונות לבעיות קיימות במקום בעיות חדשות. 


התמונה נוצרה באמצעות Dall-E

תגובות