הראש והפנים של הבוט נועדו לדמות אינטראקציות פנים בשיחה עם בני אדם.
הרובוט Emo מכיל 26 מפעילים המסייעים לחקות חיוכים אנושיים.
מקור תמונה : COLUMBIA ENGINEERING
אם את או אתה רוצים שהרובוט האנושי שלך ידמה בצורה מציאותית הבעות פנים , הכל עניין של תזמון.
במשך חמש השנים האחרונות, מהנדסים במעבדת המכונות היצירתיות של אוניברסיטת קולומביה חידדו את הרפלקסים של הרובוט שלהם עד אלפית השנייה.
התוצאות שלהם, המפורטות במחקר חדש שפורסם , זמינות כעת כדי לראות בעצמכם.
הכירו את Emo , ראש הרובוט המסוגל לצפות ולשקף הבעות פנים אנושיות, כולל חיוכים, תוך 840 מילישניות. אבל השאלה היא האם תישארו מחייכים או מחייכות , בסוף סרטון ההדגמה ;
בינה מלאכותית נעשית די טובה בחיקוי שיחות אנושיות - דגש כבד על " חיקוי ".
אבל כשמדובר בהתקרבות לגלוי רגשות, לעמיתינו הרובוטים הפיזיים עדיין יש הרבה פער להדביק . מכונה השופטת בטעות מתי לחייך היא לא רק מביכה - היא מושכת את תשומת הלב למלאכותיות שלה.
המוח האנושי, לעומת זאת, מיומן להפליא לפרש כמויות אדירות של רמזים חזותיים בזמן אמת, ולאחר מכן להגיב בהתאם בתנועות פנים שונות. מלבד הקושי ללמד רובוטים המונעים בינה מלאכותית את הניואנסים של הבעה, קשה גם לבנות פנים מכאניות המסוגלות לתנועות שרירים ריאליסטיות שאינן נוטות להדהים .
היוצרים של Emo מנסים לפתור חלק מהבעיות הללו, או לכל הפחות, לעזור לצמצם את הפער בין ביטוי אנושי לרובוט. כדי לבנות את הבוט החדש שלהם, צוות בראשות מומחה הבינה המלאכותית והרובוטיקה הוד ליפסון עיצב לראשונה ראש אנושי רובוטי מציאותי הכולל 26 מפעילים נפרדים כדי לאפשר תווי הבעות פנים זעירים. כל אחד מהתלמידים של Emo הכיל גם מצלמות ברזולוציה גבוהה כדי לעקוב אחר עיניו של שותפו לשיחה - עוד רמז ויזואלי חשוב ובלתי מילולי עבור אנשים.
לבסוף, הצוות של ליפסון הרכיב "עור" סיליקון על החלקים המכניים של Emo כדי להפוך את הכל לקצת פחות... אתם יודעים, מפחיד.
משם, החוקרים בנו שני מודלים נפרדים של בינה מלאכותית שיעבדו במקביל - אחד לניבוי הבעות אנושיות באמצעות הבעות זעירות של פני מטרה, ואחר כדי להנפיק במהירות תגובות מוטוריות לפנים של רובוט. בעזרת סרטונים לדוגמה של הבעות פנים אנושיות, הבינה המלאכותית של Emo למדה את המורכבויות הרגשיות מסגרת אחר מסגרת. תוך מספר שעות בלבד, אימו היה מסוגל להתבונן, לפרש ולהגיב לשינויי הפנים הקטנים שאנשים נוטים לעשות כשהם מתחילים לחייך. יתרה מכך, כעת הוא יכול לעשות זאת תוך כ-840 מילישניות.
אני חושבת שחיזוי הבעות פנים אנושיות בצורה מדויקת היא מהפכה באינטראקציות בין אדם-רובוט", באופן מסורתי, רובוטים לא תוכננו להתחשב בהבעות של בני אדם במהלך אינטראקציות. כעת, הרובוט יכול לשלב הבעות פנים אנושיות כמשוב.
נכון לעכשיו, Emo חסר כל כישורי פרשנות מילולית, כך שהוא יכול ליצור אינטראקציה רק על ידי ניתוח הבעות פנים אנושיות.
החוקרים מקווים לשלב בקרוב את היכולות הפיזיות עם מערכת מודל שפה גדולה כמו ChatGPT. אם הם יכולים להשיג זאת, אז Emo יהיה אפילו קרוב יותר לאינטראקציות אנושיות טבעיות.
כמובן, יש הרבה יותר לזיהוי מאשר חיוכים, חיוכים וגיחוכים, שבהם נראה שהמדענים מתמקדים. ("יש לגשת לחיקוי של ביטויים כמו זריחה או קמטת מצחו בזהירות מכיוון שאלו עלולים להתפרש בצורה שגויה כלעג או לשדר רגשות לא מכוונים.") עם זאת, בשלב מסוים, ייתכן שמאגרי הרובוט העתידיים יצטרכו לדעת מה לעשות עם העוויות והזעפות דומות לשלנו.