מובילת GDG Rehovot ו- Innovation Social Club יזמה תקציר של AI Regulation, המספק סקירה מקיפה של ההתפתחויות, ההכרזות והשינויים הגלובליים המשמעותיים ביותר בתחום הרגולציה של AI. וכולל פעילויות מפתח. כל עדכון רגולטורי יכלול קישורים למשאבים קשורים בתחתית לעיונך.
אנו דנים בכך בקהילה מזה מספר שנים - הצורך הבהול לבנות וליישם רגולציה מהר יותר ממהירות פיתוחים בתחום הבינה המלאכותית.
תקנות AI חיוניות מכמה סיבות המשפיעות ישירות על רווחת האדם, הבטיחות והשימוש האתי בטכנולוגיה.
הנה כמה סיבות מרכזיות לכך שתקנות בינה מלאכותית חשובות למין האנושי:
דאגות אתיות: בינה מלאכותית יכולה לקבל החלטות ולנקוט פעולות בעלות השלכות אתיות, כגון בתחום הבריאות, משפט פלילי ותעסוקה. התקנות מבטיחות שמערכות בינה מלאכותית מפותחות ומשמשות בדרכים המקיימות סטנדרטים אתיים ומגנים על זכויות אדם.
בטיחות ואבטחה: למערכות AI יכולות להיות השפעות משמעותיות על בטיחות ואבטחה, במיוחד באזורים קריטיים כמו רכבים אוטונומיים, אבטחת סייבר ומערכות הגנה. התקנות מסייעות להבטיח שטכנולוגיות בינה מלאכותית מפותחות ונפרסות בבטחה כדי למזער סיכונים לחיי אדם ולתשתית.
הוגנות ואחריות: אלגוריתמי בינה מלאכותית יכולים לפעמים להנציח הטיות או חוסר הוגנות, מה שמוביל לאפליה או אי שוויון. התקנות מטרתן לקדם הוגנות, שקיפות ואחריות במערכות בינה מלאכותית כדי למנוע תוצאות מפלות ולהבטיח שההחלטות ניתנות להסבר ומוצדק.
הגנת פרטיות: בינה מלאכותית מסתמכת לרוב על כמויות אדירות של נתונים, מה שמעלה חששות לגבי הפרת פרטיות ושימוש לרעה בנתונים. תקנות כגון חוקי הגנת מידע עוזרות לשמור על זכויות הפרטיות של אנשים ולהבטיח שהנתונים האישיים נאספים, מעובדים ונעשה בהם שימוש אחראי.
חדשנות: תקנות מעוצבות היטב יכולות גם לעודד חדשנות על ידי מתן הנחיות ברורות, טיפוח אמון בטכנולוגיות AI וקידום שיטות פיתוח אחראיות של AI. זה יכול להוביל ליצירת מערכות AI המועילות לחברה תוך מזעור נזקים פוטנציאליים.
שיתוף פעולה בינלאומי: תקנות בינה מלאכותית ממלאות תפקיד גם בקידום שיתוף פעולה בינלאומי ותקנים לפיתוח ופריסה של בינה מלאכותית. תקנות הרמוניות יכולות להקל על שיתוף פעולה עולמי, לצמצם את חסמי הסחר ולהבטיח שטכנולוגיות בינה מלאכותית מפותחות ומשתמשות בהן באופן שיועיל לאנשים ברחבי העולם.
בסך הכל, תקנות בינה מלאכותית חיוניות להבטחת שטכנולוגיות בינה מלאכותית מפותחות ומשמשות בדרכים המתאימות לערכים האנושיים, מגינות על זכויות אדם ותורמות באופן חיובי להתקדמות החברה.
תקציר עולמי : רגולציה בתחום הבינה המלאכותית
הצגת רגולציית הבינה המלאכותית שלנו משמשת משאב רב ערך כדי להקדים את ההתפתחויות העולמיות האחרונות בתעשיית הבינה המלאכותית. המחויבות לספק עדכונים בזמן מבטיחה שיש לך גישה למידע חיוני והבנה טובה יותר של הנוף הרגולטורי המתפתח בתחום הבינה המלאכותית.
1. הנחיות הנתונים החדשות לשקיפות והגינות בשימוש בבינה מלאכותית :
מדינה : סינגפור תאריך : 1 במרץ
סיכום : לאחר תקופה של התייעצות, סינגפור פרסמה הנחיות מייעצות בנוגע לניצול של נתונים אישיים על ידי מערכות בינה מלאכותית (AI) לצורך קבלת המלצות והחלטות.
ההנחיות מבהירות כי חוק הגנת המידע האישי (PDPA) של סינגפור מסדיר את האיסוף והשימוש בנתונים אישיים במערכות AI. איסוף ושימוש בנתונים אישיים לצורך מתן המלצות, תחזיות או החלטות יחייבו הסכמה, למעט מקרים שבהם ישים הסכמה נחשבת או חריגים ספציפיים, כגון חריג האינטרסים הלגיטימיים לפי סעיף 13 ל-PDPA.
כדי להבטיח בהירות ושקיפות, מומלץ לארגונים לכלול מספר נקודות מפתח בהתראות שלהם בעת איסוף ועיבוד נתונים אישיים:
הפונקציה הספציפית במוצר שלהם המחייבת שימוש בנתונים אישיים (למשל, המלצה על סרטים);
סקירה רחבה של סוגי הנתונים האישיים שיש לאסוף ולעבד (כמו הרגלי צפייה בסרטים);
הבהרה לגבי האופן שבו הנתונים האישיים המעובדים רלוונטיים לפונקציונליות של המוצר (כגון ניצול היסטוריית הצפייה של המשתמשים כדי להציע סרטים); ו
זיהוי של מאפייני נתונים מסוימים שעשויים להשפיע באופן משמעותי על הפונקציונליות של המוצר (לדוגמה, האם סרט נצפה בשלמותו או נצפה שוב ושוב).
ארגונים המשתמשים במערכות בינה מלאכותיות מתבקשים לשמור על שקיפות על ידי פירוט במדיניות הכתובה שלהם את הנהלים והאמצעים הקיימים כדי להבטיח הוגנות וסבירות. המסמך מתייחס גם למשאבים נוספים כמו Model AI Governance Framework ו-AI Verify כדי להקל על הציות להנחיות אלו.
ניתן לקרוא את ההודעה לעיתונות כאן ואת ההנחיות כאן .
2. ה -TC260 מפרסם הנחיות אבטחה עבור שירותי בינה מלאכותית
מדינה : סין תאריך : 5 במרץ
סיכום : ב-1 במרץ 2024, לאחר התייעצות ציבורית שהתקיימה באוקטובר 2023, חשפה הוועדה הטכנית הלאומית לתקינה לאבטחת מידע (TC260) את המסמך הטכני על דרישות בסיסיות לאבטחת שירותי בינה מלאכותית יצירתית.
מסמך זה מפרט תנאי אבטחה חיוניים להטמעת שירותי AI גנרטיביים, כדלקמן:
יש לבצע הערכת אבטחה לפני איסוף נתונים לאימון מודלים של AI.
במקרים בהם נעשה שימוש בנתונים מסחריים, הכרחי שיהיה הסכם בר אכיפה משפטי המפרט את מקור הנתונים, איכותם ואבטחתם.
משיקולי קניין רוחני, צריכים להיות מנגנונים לתלונות ולדיווח, לצד תקשורת ברורה למשתמשים לגבי סיכוני IP פוטנציאליים.
השימוש במידע אישי של אדם מחייב הסכמה מפורשת, ונתונים אישיים רגישים במערך הנתונים של ההדרכה דורשים הסכמה נפרדת נוספת.
ספקי שירותים אלה חייבים להעריך באופן ביקורתי את הנחיצות והאבטחה של שימוש בטכנולוגיות בינה מלאכותית, במיוחד במגזרים הנחשבים כתשתית קריטית, ולהעריך את התאמתם לשימוש על ידי קטינים.
הערכות אבטחה יכולות להתבצע באופן פנימי על ידי ספק השירות או במיקור חוץ לסוכנות חיצונית.
יתר על כן, המסמך שופך אור על הסיכונים העיקריים הקשורים הן לנתוני ההדרכה והן לתוכן שנוצר על ידי AI. קרא עוד .
מקור תמונה : © 2024 Carnegie Endowment for International Peace. All rights reserved.
שלוש התקנות המובילות של סין בנושא בינה מלאכותית הן :
תקנת 2021 על אלגוריתמי המלצות
כללי 2022 לסינתזה עמוקה (תוכן שנוצר באופן סינתטי)
טיוטת הכללים של 2023 בנושא בינה מלאכותית גנרטיבית.
תקנות אלו מכוונות לאלגוריתמי המלצות להפצת תוכן, תמונות ווידאו שנוצרו באופן סינתטי ומערכות בינה מלאכותית כמו ChatGPT של OpenAI.
הכללים יוצרים דרישות חדשות לאופן שבו אלגוריתמים נבנים ופריסה, כמו גם לאיזה מידע מפתחי AI חייבים לחשוף לממשלה ולציבור. טיוטת תקנת הבינה המלאכותית הגנרטיבית מחייבת ספקים להגיש בקשה למרשם האלגוריתמים הקיים. זה גם כלל כמה דרישות חדשות לגבי נתוני הדרכה ותוכן שנוצר שעשויים להתברר שקשה מאוד לעמוד בהם לספקים.
דרך משפך המדיניות
מאמר זה התחקה אחר תהליך קביעת המדיניות של שתיים מהתקנות הבסיסיות של סין בנושא אלגוריתמים ובינה מלאכותית, והמחיש את הכוחות המגוונים שמעוררים ומעצבים את קביעת המדיניות הטכנולוגית של המדינה. הניצוץ הראשוני לתקנות אלה נבע משינוי בעולם האמיתי: יישום טכנולוגי חדש או מודל עסקי שהשפיע על הסדר הכלכלי, החברתי והפוליטי של סין. במקרה של תקנת אלגוריתמי ההמלצות, השינוי הזה היה עלייתן של אפליקציות חדשות מונעות אלגוריתמים כמו Toutiao והאתגרים החדשים שהם הציבו למתן תוכן ולשליטה אידיאולוגית. שינויים אחרים בעולם האמיתי שמצאו את דרכם בסופו של דבר לרגולציה כללו את עליית אפליקציות משלוחי מזון מונעות על ידי אלגוריתם ואימוץ של אפליית מחירים אלגוריתמית על ידי פלטפורמות מסחר אלקטרוני. במקרה של סינתזה עמוקה, היה זה חדשנות טכנולוגית שאפשרה יישומים להחלפת פנים שעוררה סערה ציבורית על השלכותיהן.
השינויים הללו סוננו לאחר מכן דרך העדשות התאומות של האידיאולוגיה של המק"ס, ובמקרים מסוימים, ההעדפות של שי עצמו. אפליקציות חדשות מונחות אלגוריתמים ערערו את תפיסות המק"ס לגבי תפקידה של התקשורת, והמפלגה שקלה את עצמה באמצעות סדרה של מאמרי מערכת. השפעתם של אלגוריתמים על מהגרי עבודה סינים עמדה בסתירה דומה הן לדוקטרינת המפלגה המוצהרת והן לדחיפה של שי ל"שגשוג משותף", שהאחרון הוא גורם שתורם לדיכוי הפלטפורמות הטכנולוגיות המובילות של סין. בעוד שעלייתם של הזיופים העמוקים לא עברה תקופה של ניתוח אידיאולוגי קפדני, האיומים על סביבות המידע שהציבו תמונות מפוברקות היו ברורים לקובעי המדיניות בסין וברחבי העולם.
הנושאים הללו נכנסו אז ל"עולם הרעיונות" של סין, שם הם הוגדרו ועוצבו עוד יותר על ידי מחקר אקדמי, צוותי חשיבה טכניים, עיתונות חוקרת, דעת קהל ולובי תאגידי. כאן, ההכרח הרחב של המפלגה-מדינה לעשות משהו בקשר ליישומי הטכנולוגיה הללו נעצב בהתמדה להתערבויות קונקרטיות, כגון תקנים ואישורים טכניים חדשים. סוציולוגים ועיתונאים סיניים חידדו את ההתמקדות בניצול אלגוריתמי, וסערה ציבורית רחבה העלתה את הנושא הזה לקדמת הבמה. בינתיים, מנהיגות מחשבתית תאגידית ניסחה מחדש את הדיון על זיופים עמוקים, החליפה את הטרמינולוגיה והרחיבה את ההיקף. לאורך כל התהליך הזה, דיונים בינלאומיים באותם נושאים חלחלו לעולם הרעיונות של סין, כאשר התקשורת הממלכתית וקהילת המדיניות של סין עוסקת בעקביות ולעיתים מתאימה את הרעיונות הללו להקשר הסיני.
כל ההשפעות הללו הזינו את הניסיונות הבירוקרטיים להסדיר את הטכנולוגיות באופן רשמי. ניסיונות אלו היו איטרטיביים ביותר, החל בעונשים תאגידיים בוטים לפני שהתפתחו לתקנות חזקות יותר ויותר. ה-CAC הוביל את האשמה בשני המקרים, תוך הסתמכות על התייעצויות נרחבות עם אקדמאים וטכנולוגים משפטיים סיניים כדי לעצב את נוסח התקנות. זה גם פנה למשרדים וסוכנויות קשורים, שחלקם הוסיפו הוראות חדשות כדי להתמודד עם החששות שלהם, כמו התנהגות מונופוליסטית מונעת על ידי אלגוריתמים. מה שהופיע בסוף התהליך הזה היו שתיים מהתקנות הגדולות המוקדמות בעולם בנושא אלגוריתמים ובינה מלאכותית.
בינה מלאכותית גנרטיבית והדרך קדימה
בעוד שאלגוריתם ההמלצות ותקנות הסינתזה העמוקה הניחו את היסודות למשטר הממשל של AI בסין, הם היו רק ההתחלה. בנובמבר 2022, חמישה ימים בלבד לאחר חתימת תקנת הסינתזה העמוקה, OpenAI הרעידה את העולם עם שחרורו של ChatGPT. היכולת של הצ'טבוט לייצר כתיבה אמינה על אינספור נושאים הדהימה את המשתמשים ברחבי העולם, כולל רבים במק"ס ובממשלת סין. תקנת הסינתזה העמוקה כבר טכנית כיסתה כלים כמו ChatGPT - תחת הביטוי "טכנולוגיות להפקה או עריכה של תוכן טקסט" - אבל היא לא צפתה את העוצמה או הפופולריות של הדור החדש הזה של מודלים שפות גדולים.
הרגולטורים החליטו במהירות שנדרשים כללים חדשים. במהלך שמונה החודשים הבאים, ה-CAC ורגולטורים אחרים הפיקו במהירות טיוטה ולאחר מכן תקנת בינה מלאכותית "זמנית" . שינויים טכנולוגיים וכלכליים במהלך תקופה זו שינו את החשבון של המדינה על פשרות בין ביטחון פוליטי לפיתוח בינה מלאכותית, והרגולציה הייתה נושא לוויכוח אינטלקטואלי אינטנסיבי והתנצחויות בירוקרטיות. המאמר הבא בסדרה זו יבחן את הדיונים הללו ואת המשך ההתפתחות של משטר הממשל של AI בסין, הן בבית והן על הבמה הבינלאומית.
התפתחויות אלה הלכו בדרך דומה, אם כי מואצת בהרבה, בתהליך קביעת המדיניות המפורטת במאמר זה. התהליך הציג רבים מאותם שחקנים - משרדים, יועצי מדיניות וארגונים טכניים - כמו גם כמה חדשים. וזה הבהיר עוד יותר את המתחים המרכזיים ואת המסלולים הסבירים של תקנות הבינה המלאכותית של סין.
מה שיבוא אחר כך יכלול השלכות עמוקות על הפיתוח והממשל של AI, הן בסין והן ברחבי העולם. במהלך השנים הקרובות, חברות סיניות ימשיכו לדחוף מוצרי בינה מלאכותית לשווקים גלובליים, ודיפלומטים סינים יתקשרו ויעצבו מחדש משטרי ממשל בינלאומיים. התקנות המקומיות של המדינה יגבילו ויאפשרו מאמצים אלה, והבנת הפרטים, הרעיונות והמוסדות המנחים את סין חשובה פי כמה.
3. ה -MEITY של הודו מייעצת אישור מראש למוצרי בינה מלאכותית בפלטפורמות אינטרנט
מדינה : הודו תאריך : 8 במרץ
סיכום : ב-1 במרץ 2024, המשרד ההודי לאלקטרוניקה וטכנולוגיית מידע (MEITY) שלח ייעוץ לכל המתווכים והפלטפורמות שטרם פורסם באתר MEITY.
ייעוץ זה, שנוסח במסגרת כללי ה-IT של 2021, מחייב מתווכים להבטיח אישור ממשלתי לפני הצגת מוצרי בינה מלאכותית ולוודא שהפלטפורמות שלהם אינן מפיצים תוכן לא חוקי או מודלים של בינה מלאכותית העלולים להטות את תהליך הבחירות.
דרישה מרכזית של הייעוץ היא הצורך באישור ממשלתי מפורש לפריסת טכנולוגיות בינה מלאכותית שנבדקות לא מספיק או שנחשבות לא אמינות באינטרנט ההודי, עם הצעה להשתמש ב "pop up confirmation" כדי להתריע בפני משתמשים.
מתווכים מקבלים גם הוראה לסמן כל תוכן שעלול להטעות עם מטא נתונים ברורים כדי להקל על מעקב המקור ולספק ל-MEITY דוח המפרט את הפעולות שננקטו ואת הסטטוס הנוכחי בתוך פרק זמן של 15 יום.
משרד MEITY ציין כי ייעוץ זה מכוון בעיקר לפלטפורמות מדיה חברתית ומתווכים גדולים ולא לסטארט-אפים, והוא חל במיוחד על פלטפורמות בינה מלאכותית המסווגות כ'לא נבדקו', אם כי הקריטריונים ל'לא נבדקו' נותרו לא מוגדרים.
צעדים אלה מסמנים צעד לקראת רגולציה מחמירה יותר, כאשר חוק הודו הדיגיטלי הצפוי עשוי לחזק עוד יותר את הדרישות הללו, מה שמעיד על שינוי מסגרת רגולטורית עבור AI בהודו.
לאחר שהצהירה מספר פעמים שהיא לא תסדיר בינה מלאכותית , ממשלת הודו פרסמה בחודש ינואר 2024 'ייעוץ' על פריסת מוצרי בינה מלאכותית. מהלך זה עורר גל של דאגה מהתעשייה, והוביל להבטחות שלאחר מכן על היקפו המיועד מצד הממשלה.
ניתן לגשת למסמך הייעוץ כאן;
סיכמתי כאן את שרשרת האירועים ואת המצב הנוכחי :
הייעוץ: ב-1 במרץ 2024 המשרד ההודי לאלקטרוניקה וטכנולוגיית מידע (MEITY) פרסם ייעוץ לכל המתווכים והפלטפורמות באינטרנט שדרשו מהם, בין היתר, לקבל את אישור הממשלה לפני השקת מוצרי AI במדינה.
ייעוץ זה הוצא בחסות כללי ה-IT של הודו, 2021, הקובעים בדיקת נאותות שיש להקפיד עליה על ידי מתווכים מקוונים המחפשים הגנה על 'נמל בטוח' בהודו. על כל המתווכים הוטל להבטיח שכל מודלים, תוכנות, אלגוריתמים וכו' של בינה מלאכותית, לא מארחים או מפרסמים תוכן בלתי חוקי, או שהטיות הנובעות ממודלים או פלטפורמות של בינה מלאכותית לא יפגעו בתהליך הבחירות.
סעיף 2(ג) של 'הייעוץ' עורר את הדאגה הגדולה ביותר, כאשר הוא דרש כי "השימוש במצבי בינה מלאכותית לא אמינים/לא-מהימנים/ים של בינה מלאכותית/LLM/ בינה מלאכותית, תוכנות או אלגוריתמים ו הזמינות שלו למשתמשים באינטרנט ההודי חייבת להיעשות זאת באישור מפורש... " של ממשלת הודו. הומלץ על מנגנון 'קופץ הסכמה' כדי ליידע את המשתמשים על חוסר האמינות של הפלט שנוצר.
הממשלה גם ביקשה ממתווכים להבטיח שכל תוכן שעלול להטעות יסומן במטא נתונים או מזהים ייחודיים, המאפשרים לזהות את מקורו ואת המתווך המעורב, על מנת להקל על מעקב אחר מידע שגוי או זיופים עמוקים והמקורים שלהם. לבסוף, MEITY ביקשה כל המתווכים להגיש "פעולה שננקטה ודו"ח מצב" בתוך 15 ימים ממועד הייעוץ.
המכה לאחור: בהתחשב בנושא, ובאופן מעורפל ניסוח הייעוץ, שלא לדבר על היקפו הרחב, אולי אין זה מפתיע שהוא הביא להרבה שאלות והערות שליליות. הוא סומן כגיחה ממהרת לרגולציה של בינה מלאכותית, נקרא על כך שהוא הוצא ממניעים נסתרים , ומתח ביקורת על כך שהוא מעכב את התקדמות הבינה המלאכותית של הודו .
הניסוחים הרופפים ששימשו בייעוץ לא עזרו לעניינים; לדוגמה, בעוד שהוא מחייב 'פלטפורמות' לציית לחוקים, מונח זה אינו מוגדר בכללי האב 2021. (גם לא ברור מה כולל מודל בינה מלאכותית 'לא אמין'.) הדרישה מכל המתווכים להגיש 'דוח התקדמות' ל-MEITY עשויה להיות גם לא התחלה, כאשר לא ברור כיצד הדיווח הזה ינוהל או נאכף בהתחשב בגודל השוק של הודו.
ההבהרות: MEITY הבהירה מאז כי ייעוץ זה חל בעיקר על פלטפורמות המדיה החברתית והמתווכים הגדולים, ואינו חל על סטארט-אפים. זה גם הגביל את היישום של הייעוץ לפלטפורמות בינה מלאכותית 'לא בדוקות' (אם כי היא לא מבהירה מהי פלטפורמת בינה מלאכותית 'לא בדוקה').
איפה הדברים עומדים: לאחר תגובת הנגד, נראה שממשלת הודו ממעיטה בהשפעה של הייעוץ. ראוי גם לציין שההשפעה המשפטית של 'ייעוץ' אינה ברורה; זה לא הודעה או הוראה שניתנו על פי חוק האם. אם קראו בהקשר של הבחירות הלאומיות הקרובות בהודו, ניתן לראות בכך ניסיון (לא מאוד יעיל) לשלוט על זיופים עמוקים ומידע מוטעה תחת חופת חוקי "הנמל הבטוח" הקיימים.
4. פרלמנט האיחוד האירופי מאשר את חוק הבינה המלאכותית של האיחוד האירופי
מדינה : האיחוד האירופי תאריך : 13 במרץ
סיכום : הפרלמנט האירופי אישר ברובו המוחץ את חוק הבינה המלאכותית של האיחוד האירופי, המסמל צעד משמעותי לקראת חקיקתו.
לאחר אישור זה, השלבים הבאים כוללים הסכמה פורמלית של המועצה וסקירה לשונית מקיפה. עם זאת, הצעדים הללו הם בעיקרם פרוצדורליים, מה שמסמן שחוק הבינה המלאכותית עומד להפוך לחוק.
לאחר פרסום בכתב העת הרשמי, החקיקה צפויה להיחקק באפריל או מאי 2024.
היא תיכנס לתוקף רשמית עשרים יום לאחר פרסום זה, עם תחולה מלאה החל 24 חודשים לאחר ביצועה.
מסמך הרגולציה המלא לשנת 2024 נמצא כאן : קרא עוד .
חלק מהנושאים הנפוצים שצצים בכל תקנות הבינה המלאכותית הם דרישות לגבי הוגנות, אחריות ושקיפות בשימוש בבינה מלאכותית. קובעי המדיניות ורגולטורים אחרים קוראים לספקים להציע בינה מלאכותית אחראית להגנה על זכויות היסוד של הפרט תוך טיפוח סביבה בריאה לחדשנות.
למרות שארה"ב, ובריטניה העלו טיוטות תקנות, האיחוד האירופי נמצא הרחק קדימה עם השלמת התקנות ב-23 בדצמבר שעשויות להיכנס לתוקף עד 2025. בעוד שהאיחוד האירופי אימץ גישה מבוססת סיכונים שהיא ריכוזית, רחבה ו לפי הנחיות, בריטניה אימצה מודל מבוזר יותר על ידי הסתמכות על הרגולטורים הקיימים כדי להמציא תקנות מבוססות מגזר ספציפיות, שכן ממשלת בריטניה רוצה למנוע בלבול נוסף על ידי יצירת רגולטור חוצה מגזר חדש. בריטניה מתכננת לאמץ גישת סיכון מבוססת תוצאות יותר במקום להחיל סיכוני ברירת מחדל על הטכנולוגיות הבסיסיות.
ארה"ב גם נקטה בגישה מבוזרת עם כמה סוכנויות פדרליות המביאות עקרונות משלהן עבור המגזרים שלהן, למשל FTC, CFPB וכו'. ה-SEC עשויה גם להמציא עקרונות לאלגוריתמים של המלצות פיננסיות לטובת האינטרסים של המשקיעים. בעוד שתקני האיחוד האירופי רחבים ומחמירים מאוד, סוכנויות ארה"ב נשארות מאחור. האיחוד האירופי גם התמקד במסחר אלקטרוני, מדיה חברתית ופלטפורמות מקוונות המספקות סיקור רחב של מגזרים בעוד ארה"ב עדיין לא חוקקה חקיקה בנושאים אלה.
תמונת מצב מהירה של המצב הנוכחי של התקנות ברחבי העולם מראה שרוב המדינות עדיין בתהליך של ניסוח התקנות או ככל הנראה במדינת טיוטת, למעט אירופה וסין. לחלק מהמדינות כמו מקסיקו אין טיוטת תקנות עד כה או מתכננות להקים אחת כזו בעתיד הקרוב. אנו מסתכלים על סיכום התקנות המוצעות עבור אזורי המפתח הגיאוגרפיים.
אתגרי יישום
מערכת הכללים הסותרת בין אזורים גיאוגרפיים מציבה אתגר עצום עבור ספקי הבינה המלאכותית העולמית לאמץ את התקנות של תחומי השיפוט הרלוונטיים, בעוד שהם יכולים להיפרס במגוון גיאוגרפיות אחרות. בנוסף, היישום של הנחיות הבינה המלאכותית אינו מהיר כמו הופעתם של מודלים שונים של בינה מלאכותית אשר עלולים להפוך את החקיקה למיושנת. למעט האיחוד האירופי, האתגר לאכוף מסגרות כאלה נותר מאחר שרוב האזורים הגיאוגרפיים האחרים הפכו את האימוץ להתנדבותי.
אין הסכמה גלובלית ברורה לגבי ההגדרה של מערכות בינה מלאכותית בקנה מידה עולמי, למשל, חוק הבינה המלאכותית של האיחוד האירופי מחייב את הספקים לחשוף כל חומר המוגן בזכויות יוצרים המשמש לפיתוח הפתרונות והבעלים יכולים לבטל את הסכמתם לנתונים המוגנים בזכויות יוצרים ממערכי הנתונים של ההדרכה. , מה שהופך את האיחוד האירופי לבחירה פחות רצויה עבור ספקי הבינה המלאכותית. באזורים הגיאוגרפיים האחרים אין תקנות ספציפיות לגבי חומר המוגן בזכויות יוצרים המשמש כמערכי נתונים של הדרכה, וזו זכותם של הספקים הבודדים להיות זהירים בחומר המוגן בזכויות יוצרים.
בהתחשב בהשפעה הרוחבית של התקנות, זה דורש הסכמה מתחומים שונים כגון משפט, אתיקה, IT, פיננסים ומומחים אחרים כדי להסכים על הוראות ומסגרת משותפת.
לתקנות שנועדו לטפל בסיכונים ספציפיים של AI עשויות להיות השלכות לא כפויות אחרות, שעלולות להפריע לחידושים פוטנציאליים של AI, מחקר או מוצרים מועילים. יצירת איזון בין טיפוח חדשנות והגנה מפני סיכונים קשה מאוד לממשלות מכיוון שהיא עלולה להגביל גם סטארט-אפים ומימון בינה מלאכותית.
הצעדים הבאים
חוק הבינה המלאכותית של האיחוד האירופי כבר אושר על ידי הפרלמנט ועשוי להפוך לתקן העולמי לרגולציה בינה מלאכותית עד 2025, בעוד שלארה"ב ובריטניה יש מערכת וולונטרית של קווים מנחים ומסגרת ללא השקפה מרוכזת בין המגזרים והן מפגרות אחרי האיחוד האירופי ב תנאי מועדי האכיפה. כל אחת מהתקנות (ארה"ב, האיחוד האירופי וסין) משקפת את המבנה החברתי שלה ואת סדרי העדיפויות הלאומיים שלה. כתוצאה מכך, זה ייצור סביבה רגולטורית מורכבת יותר לעסקים לפעילות הדדית בין גיאוגרפיות. שקיפות, הסבר וסיווג סיכונים (ברמת הארגון, השימוש במקרה ומודל/נתונים) הם המפתח לעמידה במסגרות רגולטוריות מתפתחות.
בתחום השירותים הפיננסיים, חלק מטכנולוגיות הבינה המלאכותית/ML הנפוצות משמשות במחקר השקעות, יועצי רובו, הערכות סיכונים, בדיקות AML וכו'. שירותים אלו הניתנים באמצעות AI ולמידת מכונה מאפשרים למוסדות פיננסיים להציע מוצרים מותאמים ומגוונים ללקוחותיהם בצורה חסכונית. האימוץ הגובר של AI Generative מגיע גם עם החשש הגובר לסיכונים פיננסיים. למרות שלאיחוד האירופי יש אמצעים ועונשים מחמירים להגנה על השקעות, ה-SEC וה-FCA נוקטות בגישה זהירה כדי לגבש את ההנחיות.
מוכנות החברות לאמץ את הרגולציה למרות האתגרים היא צעד מכריע לקראת ציות גלובלי. הנכונות של חברות לציית לתקנות צריכה להתחיל בקטלוג נכסי בינה מלאכותית מאוחדת המפרטת את תקנות הגיאוגרפיות השונות, המשתמשים והמוצרים המושפעים, סיווג סיכונים של יישומי הבינה המלאכותית השונים בשימוש פנימי וכו'. הכרחי שחברות יבנו בינה מלאכותית מוגדרת היטב. שולחן עבודה המורכב ממסגרת הוליסטית עם רכיבים שונים המוטמעים כמו ניהול נתונים, חדשנות, ממשל, עמידה במדיניות וכו' ובכך מציג את האמינות של מערכות ה-AI המעורבות.
נותר לראות אם יהיה שיתוף פעולה רחב בתעשייה בין קובעי המדיניות השונים, חברות הטכנולוגיה הגדולות ובעלי עניין אחרים כדי לנסח תקנת AI גלובלית סטנדרטית. מנהיגי ה-G7 קראו גם לדיונים על AI גנרטיבי, במטרה לקבוע סטנדרטים ורגולציות גלובליות לשימוש אחראי בטכנולוגיה.
5. קווים מנחים לבינה מלאכותית מהימנה, שחרור מגילת זכויות הבינה המלאכותית והצו המבצעי של הממשל האמריקני על שימוש בטוח, מאובטח ואמין בבינה מלאכותית.
מדינה: ארה"ב תאריך: אוקטובר 2022
סיכום : הממשל האמריקאי העביר לאחרונה צו ביצוע עם דגש על היוזמות שלהלן:
פיתוח ומחקר בינה מלאכותית: הצו מנחה סוכנויות פדרליות להשקיע במחקר ופיתוח בינה מלאכותית, ולהפוך את מחקר ה-AI שלהן לנגיש יותר לציבור.
שימוש בבינה מלאכותית בממשלה: הצו קובע סטנדרטים לשימוש בבינה מלאכותית בממשלה, כולל דרישות לשקיפות, אחריות והגינות.
פיתוח כוח אדם בינה מלאכותית: הצו מנחה סוכנויות פדרליות לפתח וליישם תוכניות להכשרה והכשרת כוח העבודה האמריקאי ב-AI.
שיתוף פעולה בינלאומי בינה מלאכותית: הצו מקים משרד חדש ליוזמת בינה מלאכותית לתיאום שיתוף פעולה בינלאומי בנושא בינה מלאכותית.
הצו כולל גם מספר יוזמות ספציפיות, כגון:
יצירת מגילת זכויות בינה מלאכותית: הצו מנחה את המכון הלאומי לתקנים וטכנולוגיה לפתח מגילת זכויות בינה מלאכותית, אשר יתווה את הזכויות וההגנות של אנשים בהקשר של בינה מלאכותית.
הקמת מרכז מצוינות באבטחת סייבר בינה מלאכותית: הצו מקים מרכז מצוינות חדש באבטחת סייבר בינה מלאכותית כדי לפתח ולקדם שיטות עבודה מומלצות לאבטחת מערכות בינה מלאכותית.
השקת ענן מחקר בינה מלאכותית: הצו משיק ענן מחקר בינה מלאכותית חדש, אשר יספק לחוקרים גישה למשאבי מחשוב רבי עוצמה לפיתוח ובדיקת אלגוריתמי בינה מלאכותית.
מגילת זכויות הבינה המלאכותית היא קבוצה של קווים מנחים לתכנון ושימוש אחראי בבינה מלאכותית, שנוצרה על ידי משרד הבית הלבן למדיניות מדע וטכנולוגיה (OSTP) תוך דחיפה עולמית מתמשכת להקמת תקנות נוספות לשלוט בבינה מלאכותית. המסמך, שנקרא רשמית התוכנית למגילת זכויות בינה מלאכותית, פורסם באוקטובר 2022, הוא תוצאה של שיתוף פעולה בין OSTP, אנשי אקדמיה, קבוצות זכויות אדם, הציבור הרחב ואפילו חברות גדולות כמו מיקרוסופט וגוגל.
מסמך המדיניות אשר פורסם על ידי הבית הלבן באוקטובר 2022 , מצורף כאן :
להלן נקודות המפתח רגולציית AI של ארה"ב:
1. רקע על תקנת נכסים דיגיטליים לעומת תקנת AI:
- בעבר, רגולציה של נכסים דיגיטליים התמודדה עם אתגרים עם פעולות הדרכה ואכיפה לא ברורות ולא חקיקה מקיפה.
- ממשלות מתמקדות כעת ברגולציה של AI בשל הפוטנציאל הטרנספורמטיבי שלה, אם כי חקיקה מקיפה עדיין בעיצומה.
2. הגדרה והתקדמות בבינה מלאכותית:
- בינה מלאכותית כוללת טכנולוגיות כמו מודלים של שפה גדולה (LLMs) כמו ChatGPT ובינה מלאכותית גנרטיבית, שיכולות לבצע משימות דמויות אדם וליצור תוכן מקורי.
- התקדמות אלו מציבות אתגרים עבור הרגולטורים בשל הקצב המהיר של פיתוח בינה מלאכותית.
3. העניין העולמי ברגולציה של AI:
- ממשלות ברחבי העולם מתעניינות ברגולציה של AI אך טרם יישמו מסגרות מקיפות.
4. המצב הנוכחי של תקנות בינה מלאכותית בארצות הברית:
- פקודות ביצוע תחת ממשל טראמפ וגם ביידן התייחסו למטרות הרגולציה של AI ולשיטות העבודה המומלצות.
- הצו הביצועי של הנשיא ביידן באוקטובר 2023 מתמקד בבטיחות בינה מלאכותית, אבטחה, פרטיות, שוויון, חדשנות ושימוש ממשלתי בבינה מלאכותית.
5. פעולות של סוכנויות פדרליות:
- סוכנויות פדרליות כמו הנציבות לשוויון הזדמנויות תעסוקה ווועדת הסחר הפדרלית החלו לחקור את רגולציית הבינה המלאכותית ולהנפיק הנחיות.
6. תקנת בינה מלאכותית ברמת המדינה:
- מספר מדינות חוקקו חוקי AI מקיפים, כאשר ניו יורק פעילה במיוחד בתחום זה עם יוזמות להסדרת AI בקבלת החלטות לעבודה ותעסוקה.
7. האתגרים של ויסות AI:
- הניסיון של האיחוד האירופי בחקיקת חקיקת AI מדגיש את הקושי בוויסות טכנולוגיות AI המתפתחות במהירות.
- עסקים המשתמשים בבינה מלאכותית חייבים להסתגל לנופים רגולטוריים מתפתחים ולעמוד בתקנים חדשים כדי למנוע סיכונים הקשורים לפרטיות נתונים, הטיה וקניין רוחני.
בסך הכל, המאמר מדגיש את המאמצים המתמשכים להקים מסגרות רגולטוריות עבור AI כדי לתת מענה ליכולותיו ולסיכונים הפוטנציאליים שלו במגזרים שונים.
6. הניסיון הראשון של קנדה להסדיר בינה מלאכותית (AI)
מדינה : קנדה תאריך : 2017
סיכום : חוק המידע על בינה מלאכותית (AIDA), המונהג על ידי ממשלת קנדה לצד חוק הגנת הפרטיות של הצרכן (CPPA) כחלק מחוק C-27, חוק יישום האמנה הדיגיטלית , 2022, הוא הניסיון הראשון של קנדה להסדיר בינה מלאכותית (AI). מחוזות קוויבק ואונטריו בוחנים גם פיתוח מסגרות לבניית AI מהימן. הם צפויים להיכנס לתוקף עד 2024.
אסטרטגיית הבינה המלאכותית הפאן-קנדית הלאומית , שהושקה ב-2017, הייתה הראשונה בעולם.
שלושת המכונים הלאומיים לבינה מלאכותית -מכון Amii Edmonton , Montreal Mila ,, ומכון וקטור ב Toronto - הם המוקדים המרכזיים של מערכת ה-AI המשגשגת של קנדה.
תוכנית הבינה המלאכותית של קנדה היא תוכנית לחמש שנים המייעדת השקעה של 125 מיליון דולר לבינה מלאכותית קנדית. את התוכנית מוביל המכון הקנדי למחקר מתקדם (CIFAR). האסטרטגיה מתמקדת בעיקר במחקר בינה מלאכותית ובעלייה בהכשרות חוקרים בתחום.
האסטרטגיה שואפת לשפר את הפרופיל הבינלאומי של קנדה במחקר והכשרה של בינה מלאכותית באמצעות הגדלת הפרודוקטיביות במחקר אקדמי בינה מלאכותית ושיתוף פעולה בין מכוני בינה מלאכותית בקנדה כדי למשוך ולשמר כישרונות AI יוצאי דופן באוניברסיטאות ובתעשייה בקנדה. אסטרטגיה זו מקווה בסופו של דבר לתרגם את תגליות המחקר של AI במגזר הפרטי והציבורי שיובילו ליתרונות סוציו-אקונומיים לקנדה.
7. חוק הבינה המלאכותית של האיחוד האירופי
אזור : אירופה תאריך : דצמבר 2023
חוק הבינה המלאכותית של האיחוד האירופי פורסם לראשונה על ידי הנציבות האירופית באפריל 2021 ואומץ על ידי מועצת האיחוד האירופי ב-22 בדצמבר.
סיכום : האיחוד האירופי אישר את חוק הבינה המלאכותית ב-23 בדצמבר וסביר להניח שהוא ייכנס לתוקף משנת 2025. חלק מהדברים העיקריים מטיוטת התקנות נדונים להלן.
התקנות הנוכחיות חלות על כל מערכות או יישומי AI שנמצאים בשימוש באיחוד האירופי, ללא קשר אם החברה פועלת באיחוד האירופי או מחוץ לאיחוד האירופי. הרגולציה מבקשת לאמץ גישה מבוססת סיכונים ומסווגת את השימוש בבינה מלאכותית לפי רמת סיכון (לא מקובלת, גבוהה, מוגבלת וסיכון מינימלי או לא) ומטילה דרישות ביקורת, תיעוד ותהליכים על מפתחי ומפרסי מערכות בינה מלאכותית.
חברות המפתחות או פורסות מערכות AI יצטרכו אפוא לתעד ולסקור מקרי שימוש כדי לזהות את סיווג הסיכון המתאים:
חוק הבינה המלאכותית אוסר על מערכות "סיכון בלתי מקובל", כולל ביומטריה ומערכות זיהוי פנים במקומות ציבוריים בכפוף לשימוש בהן. המערכות נחשבות בעלות סיכון גבוה אם הן מהוות "סיכון משמעותי" לבריאותו, לבטיחותו או לזכויות היסוד של אדם.
מערכות בינה מלאכותית בסיכון גבוה יהיו כפופות להערכות התאמה לפני פריסה, זמינות של תיעוד תאימות מתאים, מעקב אחר תוצאות, שקיפות, פיקוח אנושי, דיוק ואבטחה.
חובות שקיפות מחמירות מוצעות עבור בינה מלאכותית גנרטיבית, תת-קטגוריה של מודלים בסיסיים, המחייבות ספקי מערכות כאלה ליידע את המשתמשים כאשר תוכן נוצר בינה מלאכותית.
הצעת הפרלמנט מגדילה את העונשים האפשריים על הפרת חוק הבינה המלאכותית. הפרת פרקטיקה אסורה תהיה כפופה לקנסות של עד 40 מיליון אירו, או 7% מההכנסה הגלובלית השנתית של חברה, לפי הגבוה מביניהם, לעומת 30 מיליון אירו, או 6% מההכנסה השנתית העולמית.
8. הספר הלבן לרגולציה של בינה מלאכותית
מדינה : בריטניה , תאריך : מרץ 2023'
בריטניה השיקה את הספר הלבן שלה המגדיר חמישה עקרונות מנחים עבור AI - בטיחות, שקיפות, הוגנות, אחריות ותחרויות.
הגישה מבוססת על מודל חדשנות זריז ומקצועי הממנף את היכולות והכישורים של הרגולטורים הקיימים, בניגוד לרגולטור חוצה-מגזרים חדש ספציפי ל-AI.
מקור תמונה : The UK Office for Artificial Intelligence
סיכום מנהלים של אסטרטגיית הבינה המלאכותית הלאומית של בריטניה, מתאר את החזון והתוכניות של המדינה לגבי בינה מלאכותית (AI).
להלן תקציר של נקודות המפתח:
1. החשיבות של AI: בינה מלאכותית מוכרת כטכנולוגיה חיונית בעלת פוטנציאל לשנות תעשיות, להניע צמיחה כלכלית ולשפר היבטים שונים של החיים.
2. העמדה של בריטניה: בריטניה ממוקמת כמובילה עולמית בתחום הבינה המלאכותית, במטרה לשמור ולחזק את מעמדה באמצעות השקעות אסטרטגיות, פיתוח כישרונות וסביבה רגולטורית תומכת.
3. יעדי אסטרטגיית בינה מלאכותית:
- השקעה לטווח ארוך במערכת האקולוגית של AI כדי לשמור על מנהיגות במדע ובחידושי AI.
- הקלת המעבר לכלכלה התומכת בינה מלאכותית בכל המגזרים והאזורים.
- הבטחת ממשל ורגולציה יעילים של טכנולוגיות בינה מלאכותית לעידוד חדשנות, השקעות והגנה על אינטרסים ציבוריים.
4. הנחות מפתח לעשור הבא:
- גישה לאנשים, נתונים, כוח מחשוב וכספים הם קריטיים להתקדמות בינה מלאכותית.
- בינה מלאכותית תהפוך למיינסטרים במגזרים שונים, מה שמחייב פעולה כדי להבטיח יתרונות רחבים.
- מסגרות ממשל ורגולציה חייבות להתפתח כדי לעמוד בקצב התקדמות בינה מלאכותית.
5. עמודים אסטרטגיים:
א. השקעה בצרכים ארוכי הטווח של מערכת האקולוגית של AI, כולל מחקר, פיתוח מיומנויות, גישה לנתונים ותמיכה בחדשנות.
ב. תמיכה באימוץ ושימוש בבינה מלאכותית בין מגזרים ואזורים כדי למקסם את היתרונות.
ג. הבטחת ממשל מתאים ושיתוף פעולה בינלאומי כדי לטפח חדשנות ולהגן על האינטרסים הציבוריים.
6. אזורי מיקוד:
- פיתוח מיומנויות וכישרונות: משיכת, הכשרה ושימור כישרונות בינה מלאכותית ברחבי האקדמיה, התעשייה והממשלה.
- סביבה עסקית: יצירת סביבה פרו-חדשנות עם גישה למימון, תשתיות ושווקים.
- מסגרות אתיות ורגולטוריות: קביעת כללים ברורים, שקיפות ואחריות בפיתוח ובפריסה של AI.
7. חזון לטווח ארוך: בריטניה שואפת להיות מובילה עולמית באתיקה של בינה מלאכותית, חדשנות ותחרותיות כלכלית, תוך תרומה לסטנדרטים ושיתופי פעולה בינלאומיים.
8. יישום וניטור: האסטרטגיה מתארת תוכניות לביצוע, מעקב אחר ההתקדמות באמצעות אינדיקטורים כמותיים, וטיפוח שיתוף פעולה בין מגזרים ובעלי עניין.
בסך הכל, אסטרטגיית הבינה המלאכותית הלאומית מדגישה את המחויבות של בריטניה למינוף בינה מלאכותית ליתרונות חברתיים וכלכליים תוך הבטחת פיתוח אחראי וממשל של טכנולוגיות בינה מלאכותית.
9. הגדרת מדיניות בנושא רגולציה ואתיקה של בינה מלאכותית
מדינה : ישראל תאריך : דצמבר 2023
סיכום : משרד החדשנות, המדע והטכנולוגיה ומשרד המשפטים מובילים בהתמודדות עם אתגרי בינה מלאכותית עם מדיניות חדשנות אחראית
שר החדשנות, המדע והטכנולוגיה אופיר אקוניס: "ההשפעה המהפכנית של טכנולוגיית הבינה המלאכותית מניבה שיפורים מתמידים באיכות החיים של אזרחי ישראל באינספור תחומי פעילות, לרבות בתחום הבריאות, המדע, הטכנולוגיה, החקלאות, החינוך והביטחון. עם זאת, יחד עם היתרונות הרבים שלו, ישנם גם סיכונים רבים. עקרונות אלו שפרסמנו מאפשרים פיתוח וחדשנות אחראית, מאפשרים שימוש בבינה מלאכותית, תוך שמירה על זכויות בסיסיות ואינטרס הציבור".
***
ירושלים 17 בדצמבר 2023 – ישראל חשפה את המדיניות המקיפה הראשונה אי פעם בנושא רגולציה ואתיקה של בינה מלאכותית (AI), המדגימה מחויבות לחדשנות אחראית ומתמודדת עם האתגרים המורכבים הקשורים לשימוש הנרחב בבינה מלאכותית במגזרים שונים. המדיניות, שהושקה היום רשמית, היא פרי מאמצים משותפים בהובלת משרד החדשנות, המדע והטכנולוגיה, בשיתוף הלשכה ליועץ המשפטי ולענייני חקיקה (המחלקה למשפט כלכלי) במשרד המשפטים.
ככל שמערכות בינה מלאכותית הופכות לאינטגרליות בתעשיות ברחבי העולם, ישראל מכירה בצורך בצעדים יזומים כדי להבטיח שימוש אחראי ולהפחתת סיכונים פוטנציאליים. המדיניות, המתבססת על התייעצויות נרחבות עם משרדי ממשלה, ארגוני חברה אזרחית, האקדמיה והמגזר הפרטי, קובעת מסגרת לטיפוח חדשנות תוך התייחסות לדאגות הקשורות להטיה, שקיפות, בטיחות, אחריות ופרטיות.
דגשים עיקריים של מדיניות הבינה המלאכותית של ישראל:
1. גישה מקיפה: מדיניות הבינה המלאכותית מזהה שבעה אתגרים עיקריים הנובעים משימוש בבינה מלאכותית במגזר הפרטי: אפליה, פיקוח אנושי, הסבר, חשיפת אינטראקציות בינה מלאכותית, בטיחות, אחריות ופרטיות.
2. פיתוח שיתופי: מדיניות הבינה המלאכותית מגובשת תוך שיתוף פעולה עם בעלי עניין שונים, לרבות משרד החדשנות, המדע והטכנולוגיה, משרד המשפטים, רשות החדשנות, הרשות להגנת הפרטיות, מנהלת הסייבר הלאומית בישראל, הלאומית הישראלית. סוכנות דיגיטל, חברות AI מובילות בישראל ובאקדמיה.
3. עקרונות מדיניות: בהתאם להמלצות AI של ה-OECD, מדיניות ה-AI של ישראל מתווה עקרונות מדיניות משותפים והמלצות מעשיות להתמודדות עם אתגרים וטיפוח חדשנות בינה מלאכותית אחראית.
4. תפיסת חדשנות אחראית: תוך שימת דגש על המושג "חדשנות אחראית", מדיניות הבינה המלאכותית שואפת לאזן בין חדשנות לבין אתיקה, תוך ראייתם כיעדים סינרגטיים ולא סותרים.
המלצות מדיניות עיקריות:
מסגרת מדיניות ממשלתית: מדיניות הבינה המלאכותית ממליצה להעצים רגולטורים ספציפיים למגזר, טיפוח יכולת פעולה בינלאומית, אימוץ גישה מבוססת סיכונים, עידוד פיתוח מצטבר, שימוש ברגולציה "רכה" וקידום שיתוף פעולה בין בעלי עניין.
עקרונות AI אתיים: מדיניות AI מציעה לאמץ קבוצה משותפת של עקרונות AI אתיים המבוססים על עקרונות AI OECD, תוך התמקדות בחדשנות ממוקדת באדם, שוויון, שקיפות, אמינות, אחריות וקידום פיתוח בר קיימא.
מרכז תיאום מדיניות בינה מלאכותית: הוא מציע להקים גוף בין-סוכנויות מבוסס מומחים שייעץ לרגולטורים מגזריים, קידום תיאום, עדכון מדיניות בינה מלאכותית ממשלתית, ייעץ ברגולציה בינה מלאכותית וייצג את ישראל בפורומים בינלאומיים.
מיפוי שימושים ואתגרים של בינה מלאכותית: מדיניות הבינה המלאכותית דוחקת בגופים ממשלתיים וברגולטורים לזהות ולמפות את השימושים במערכות בינה מלאכותית ואתגרים נלווים במגזרים מוסדרים.
פורומים לרגולטורים ושיתוף ציבור: היא ממליצה להקים פורומים לרגולטורים ולהשתתפות רב אינטרסנטים כדי לקדם תיאום, קוהרנטיות ודיונים פתוחים.
שיתוף פעולה בינלאומי: הוא מעודד מעורבות פעילה בפיתוח רגולציה ותקנים בינלאומיים לקידום יכולת פעולה הדדית גלובלית.
כלים לבינה מלאכותית אחראית: המדיניות קוראת לפיתוח כלים, לרבות כלי לניהול סיכונים, כדי לאפשר פיתוח ושימוש אחראי בינה מלאכותית, כאשר המרכז לתיאום מדיניות בינה מלאכותית מוביל מאמץ זה.
מדיניות הבינה המלאכותית של ישראל מסמנת צעד משמעותי לקראת הבטחת חדשנות בינה מלאכותית אחראית ואתית, שמהווה תקדים למדינות אחרות המתמודדות עם אתגרים דומים. המחויבות של הממשלה לשיתוף פעולה, שקיפות ויכולת הסתגלות משקפת את מסירותה לטפח מערכת אקולוגית משגשגת של AI תוך שמירה על ערכי החברה.
שר החדשנות, המדע והטכנולוגיה אופיר אקוניס: "לאחר השלמת עבודה מקיפה ומקצועית ברמות הגבוהות ביותר, החלטתי לאמץ את מסקנות המדיניות בנושא רגולציה ואתיקה של בינה מלאכותית (AI).
ההשפעה המהפכנית של טכנולוגיית הבינה המלאכותית מניבה שיפורים מתמידים באיכות החיים של אזרחי ישראל באינספור תחומי פעילות, לרבות בתחום הבריאות, המדע, הטכנולוגיה, החקלאות, החינוך והביטחון. עם זאת, יחד עם יתרונותיו הרבים, ישנם גם סיכונים רבים. עלינו להבטיח שבני האדם יישארו במרכז פיתוח הבינה המלאכותית, ושקובעי המדיניות בתחום מצוידים בקבוצה של עקרונות משותפים. עקרונות אלו מאפשרים פיתוח וחדשנות אחראית, קידום מחקר, פיתוח ושימוש במערכות AI, תוך שמירה על זכויות יסוד כגון פרטיות ושוויון.
כעת, לאחר שמסמך המדיניות הושלם ופורסם ברבים, בכוונתי להוביל את קבלת החלטת ממשלה לאימוץ המדיניות על ידי ממשלת ישראל. ככזה, הוא יספק הנחיות ברורות לרגולטורים לרגולטורים בתגובתם לאתגרים הרגולטוריים השונים שמציבות מערכות AI. זה, בתורו, יחזק את ההובלה הטכנולוגית הגלובלית של ישראל ויעזור לקדם חדשנות אחראית".
מאיר לוין, המשנה ליועץ המשפטי לממשלה (משפט כלכלי), משרד המשפטים: "בנוף הטכנולוגי של היום המתפתח במהירות, בינה מלאכותית מציגה הזדמנויות חסרות תקדים עבור החברה והכלכלה שלנו. שילוב אחראי של AI בהיבטים שונים של החיים מחייב התאמה של מסגרות החוק והרגולציה שלנו. עלינו להבטיח שהשילוב של AI תואם את האינטרס הציבורי וזכויות האדם תוך הימנעות מחסומים מיותרים שעלולים להפריע לתעשייה המקומית ולמנוע מהציבור מוצרים ושירותים חדשניים. ההמלצות בדוח מהוות אבן דרך משמעותית, המספקת הנחיות לעבודה העתידית של הממשלה ברגולציה של AI. אני משבח את מאמצי שיתוף הפעולה עם משרד החדשנות, המדע והטכנולוגיה, כמו גם שותפינו במשרד המשפטים. אני מצפה להמשך העבודה החשובה הזו בשטח".
למסמך המדיניות המלא :