מהי אחריותם של מפתחים המשתמשים בבינה מלאכותית גנרטיבית?

מהי אחריותם של מפתחים המשתמשים בבינה מלאכותית גנרטיבית?

תשובה קצרה: מפתחים המשתמשים בבינה מלאכותית גנרטיבית אחראים על המערכת כולה, לא רק על הפלט של המודל. כאשר בינה מלאכותית משפיעה על החלטות, קוד, פרטיות או אמון משתמשים, עליהם לבחור יישומים בטוחים, לאמת תוצאות, להגן על נתונים, להפחית נזקים ולהבטיח שאנשים יוכלו לסקור, לעקוף ולתקן טעויות.

נקודות מפתח:

אימות : התייחסו לתפוקות מלוטשות כלא מהימנות עד שמקורות, בדיקות או סקירה אנושית יאשרו אותן.

הגנת נתונים : צמצום נתונים מיידיים, הסרת מזהים ואבטחת יומני רישום, בקרות גישה וספקים.

הוגנות : בדיקה על פני נתונים דמוגרפיים והקשרים שונים כדי לזהות סטריאוטיפים ודפוסי כישלון לא אחידים.

שקיפות : יש לתייג בבירור את השימוש בבינה מלאכותית, להסביר את מגבלותיה ולהציע סקירה או ערעור אנושי.

אחריות : הקצאת בעלים ברורים לפריסה, אירועים, ניטור והחזרה למצב קודם לפני ההשקה.

מהי אחריותם של מפתחים המשתמשים בבינה מלאכותית גנרטיבית? אינפוגרפיקה

מאמרים שאולי תרצו לקרוא אחרי זה:

🔗 כלי הבינה המלאכותית הטובים ביותר למפתחי תוכנה: עוזרי קידוד מובילים המופעלים על ידי בינה מלאכותית
השוו בין עוזרי קידוד בינה מלאכותית מובילים לקבלת זרימות עבודה מהירות ונקיות יותר לפיתוח.

🔗 10 כלי הבינה המלאכותית המובילים למפתחים להגברת הפרודוקטיביות
רשימה מדורגת של כלי בינה מלאכותית למפתחים לקידוד חכם יותר ומהירות.

🔗 מדוע בינה מלאכותית יכולה להיות רעה לחברה ולאמון
מסביר נזקים בעולם האמיתי: הטיה, פרטיות, מקומות עבודה וסיכוני מידע שגוי.

🔗 האם בינה מלאכותית הגזימה בהחלטות בעלות סיכון גבוה?
מגדיר מתי בינה מלאכותית חוצה גבולות: מעקב, זיופים עמוקים, שכנוע, חוסר הסכמה.

מדוע האחריות של מפתחים המשתמשים בבינה מלאכותית גנרטיבית חשובה יותר ממה שאנשים חושבים

הרבה באגים בתוכנה מעצבנים. כפתור נשבר. דף נטען לאט. משהו קורס וכולם נאנחים.

בעיות בינה מלאכותית גנרטיבית יכולות להיות שונות. הן יכולות להיות עדינות.

מודל יכול להישמע בטוח בעצמו למרות שהוא טועה. פרופיל NIST GenAI הוא יכול לשחזר הטיה ללא סימני אזהרה ברורים. פרופיל NIST GenAI הוא יכול לחשוף נתונים רגישים אם משתמשים בו ברשלנות. 10 המובילים של OWASP עבור יישומי LLM שמונה שאלות של ICO עבור בינה מלאכותית גנרטיבית הוא יכול לייצר קוד שעובד - עד שהוא נכשל בייצור בצורה מביכה מאוד. 10 המובילים של OWASP עבור יישומי LLM קצת כמו להעסיק מתמחה נלהב מאוד שלעולם לא ישן ומדי פעם ממציא עובדות בביטחון מדהים.

זו הסיבה שאחריותם של מפתחים המשתמשים בבינה מלאכותית גנרטיבית גדולה יותר מיישום פשוט. מפתחים כבר לא בונים רק מערכות לוגיות. הם בונים מערכות הסתברותיות עם קצוות מטושטשים, תפוקות בלתי צפויות והשלכות חברתיות אמיתיות. NIST AI RMF

משמעות הדבר היא שאחריות כוללת:

אתם יודעים איך זה הולך - כשכלי מרגיש קסום, אנשים מפסיקים להטיל בו ספק. מפתחים לא יכולים להרשות לעצמם להיות כל כך רגועים.

מה הופך גרסה טובה לאחריותם של מפתחים המשתמשים בבינה מלאכותית גנרטיבית? 🛠️

גרסה טובה של אחריות אינה פרפורמטיבית. היא לא רק הוספת הצהרת אחריות בתחתית וקריאה לכך אתיקה. היא באה לידי ביטוי בבחירות עיצוב, בהרגלי בדיקה ובהתנהגות המוצר.

כך נראית בדרך כלל האחריות של מפתחים המשתמשים בבינה מלאכותית גנרטיבית

אם זה נשמע הרבה, ובכן... זה אכן כך. אבל זו העניין כשעובדים עם טכנולוגיה שיכולה להשפיע על החלטות, אמונות והתנהגות בקנה מידה גדול. עקרונות הבינה המלאכותית של ה-OECD

טבלת השוואה - תחומי האחריות העיקריים של מפתחים המשתמשים בבינה מלאכותית גנרטיבית במבט חטוף 📋

אזור אחריות על מי זה משפיע תרגול יומיומי של מפתחים למה זה משנה
דיוק ואימות משתמשים, צוותים, לקוחות סקירת פלטים, הוספת שכבות אימות, בדיקת מקרי קצה בינה מלאכותית יכולה להיות שוטפת ועדיין שגויה בטירוף - וזה שילוב גס של פרופיל NIST GenAI
הגנת הפרטיות משתמשים, לקוחות, צוות פנימי מזעור השימוש בנתונים רגישים, ניקוי הנחיות, בקרה על יומני רישום ברגע שמידע פרטי דולף, משחת השיניים יוצאת מהשפופרת 😬 שמונה שאלות של ICO עבור בינה מלאכותית גנרית OWASP 10 המובילות עבור יישומי LLM
הטיה והגינות קבוצות תת-מיוצגות, כל המשתמשים באמת ביקורת פלטים, בדיקת תשומות מגוונות, כוונון אמצעי הגנה נזק לא תמיד חזק - לפעמים הוא שיטתי ושקט. פרופיל NIST GenAI. הנחיות ICO בנושא בינה מלאכותית והגנת נתונים.
בִּטָחוֹן מערכות החברה, משתמשים הגבלת גישה למודל, הגנה מפני הזרקה מיידית, פעולות מסוכנות בארגז חול ניצול חכם אחד יכול להרוס אמון במהירות - 10 המובילים של OWASP עבור יישומי LLM NCSC בנושא בינה מלאכותית ואבטחת סייבר
שְׁקִיפוּת משתמשי קצה, רגולטורים, צוותי תמיכה תייג בבירור את התנהגות הבינה המלאכותית, הסבר את המגבלות, תיעוד השימוש אנשים ראויים לדעת מתי המכונה עוזרת ל-OECD עקרונות בינה מלאכותית קוד נוהג בנושא סימון ותיוג של תוכן שנוצר על ידי בינה מלאכותית
אחריות בעלי מוצר, צוותי משפט, צוותי פיתוח הגדרת בעלות, טיפול באירועים, נתיבי הסלמה "הבינה המלאכותית עשתה את זה" אינה תשובה למבוגרים בלבד. עקרונות הבינה המלאכותית של ה-OECD
אֲמִינוּת כל מי שנוגע במוצר ניטור כשלים, קביעת ספי ביטחון, יצירת לוגיקת גיבוי מודלים נסחפים, נכשלים בדרכים בלתי צפויות, ומדי פעם חווים אפיזודה דרמטית קטנה. NIST AI RMF NCSC הנחיות בינה מלאכותית מאובטחות
רווחת המשתמש משתמשים פגיעים במיוחד הימנעו מתכנון מניפולטיבי, הגבילו את התפוקות המזיקות, סקרו מקרי שימוש בסיכון גבוה רק בגלל שמשהו יכול להיווצר, זה לא אומר שהוא צריך להיות דומה ל-OECD עקרונות הבינה המלאכותית NIST AI RMF

שולחן קצת לא אחיד, בוודאי, אבל זה מתאים לנושא. גם אחריות אמיתית אינה אחידה.

האחריות מתחילה לפני ההנחיה הראשונה - בחירת מקרה השימוש הנכון 🎯

אחת האחריות הגדולה ביותר של מפתחים היא להחליט האם בכלל יש להשתמש בבינה מלאכותית גנרית . NIST AI RMF

זה נשמע מובן מאליו, אבל מדלגים על זה כל הזמן. צוותים רואים מודל, מתרגשים ומתחילים לכפות אותו לתוך זרימות עבודה שהיו מטופלות טוב יותר על ידי כללים, חיפוש או לוגיקת תוכנה רגילה. לא כל בעיה צריכה מודל שפה. חלק מהבעיות דורשות מסד נתונים ואחר צהריים שקט.

לפני הבנייה, יזמים צריכים לשאול:

יזם אחראי לא רק שואל, "האם נוכל לבנות את זה?" הוא שואל, "האם זה צריך להיבנות ככה?" NIST AI RMF

השאלה הזו כשלעצמה מונעת הרבה שטויות מבריקות.

דיוק הוא אחריות, לא תכונת בונוס ✅

בואו נהיה ברורים - אחת המלכודות הגדולות ביותר בבינה מלאכותית גנרטיבית היא לבלבל בין רהיטות לאמת. מודלים לעיתים קרובות מייצרים תשובות שנשמעות מלוטשות, מובנות ומשכנעות מאוד. וזה נחמד, עד שהתוכן הוא שטויות עטוף בביטחון. פרופיל NIST GenAI

אז האחריות של מפתחים המשתמשים בבינה מלאכותית גנרטיבית כוללת בנייה לצורך אימות.

זֹאת אוֹמֶרֶת:

זה מאוד חשוב בתחומים כמו:

  • שירותי בריאות

  • לְמַמֵן

  • זרימות עבודה משפטיות

  • הַשׂכָּלָה

  • תמיכת לקוחות

  • אוטומציה ארגונית

  • יצירת קוד

קוד שנוצר, לדוגמה, יכול להיראות מסודר תוך הסתרת פגמי אבטחה או טעויות לוגיות. מפתח שמעתיק אותו בעיוורון אינו יעיל - הוא פשוט מעביר סיכונים לפורמט יפה יותר. 10 המובילים של OWASP עבור יישומי LLM NCSC בנושא בינה מלאכותית ואבטחת סייבר

המודל יכול לסייע. המפתח עדיין אחראי על התוצאה. עקרונות הבינה המלאכותית של ה-OECD

פרטיות וניהול נתונים אינם נתוני משא ומתן 🔐

כאן הדברים נהיים רציניים במהירות. מערכות בינה מלאכותית גנרטיביות מסתמכות לעתים קרובות על הנחיות, יומנים, חלונות הקשר, שכבות זיכרון, ניתוחים ותשתיות של צד שלישי. זה יוצר הזדמנויות רבות לדליפת נתונים רגישים, הישארות או שימוש חוזר בדרכים שמשתמשים מעולם לא ציפו להן. שמונה שאלות של ICO עבור בינה מלאכותית גנרטיבית OWASP 10 המובילות עבור יישומי LLM

על מפתחים יש אחריות להגן על:

  • מידע אישי

  • רישומים פיננסיים

  • פרטים רפואיים

  • נתוני החברה הפנימיים

  • סודות מסחריים

  • אסימוני אימות

  • תקשורת לקוחות

נהלים אחראיים כוללים:

זהו אחד מאותם תחומים שבהם "שכחנו לחשוב על זה" אינו טעות קטנה. זהו כישלון שובר אמון.

ואמון, ברגע שהוא נסדק, מתפשט כמו זכוכית שנפלה. אולי לא המטאפורה הכי מסודרת, אבל הבנתם.

הטיה, הוגנות וייצוג - האחריות השקטה יותר ⚖️

הטיה בבינה מלאכותית גנרטיבית היא לעיתים רחוקות נבל מצויר. היא בדרך כלל חמקמקה יותר מזה. מודל עשוי לייצר תיאורי תפקידים סטריאוטיפיים, החלטות פיקוח לא אחידות, המלצות לא אחידות או הנחות צרות מבחינה תרבותית מבלי לעורר אזעקות ברורות. פרופיל NIST GenAI

זו הסיבה שאחריותם של מפתחים המשתמשים בבינה מלאכותית גנרטיבית כוללת עבודת הוגנות אקטיבית.

מפתחים צריכים:

מערכת יכולה להיראות כעובדת היטב בסך הכל, ובמקביל לשרת משתמשים מסוימים בצורה גרועה יותר מאחרים. זה לא מקובל רק בגלל שהביצועים הממוצעים נראים טוב בלוח מחוונים. הנחיות ICO בנושא בינה מלאכותית והגנת נתונים פרופיל NIST GenAI

וכן, הוגנות קשה יותר מרשימת בדיקה מסודרת. יש בה שיקול דעת. הקשר. פשרות. גם מידה מסוימת של אי נוחות. אבל זה לא מסיר את האחריות - זה מאשר אותה. הנחיות ICO בנושא בינה מלאכותית והגנה על נתונים

אבטחה היא כעת חלק תכנון מהיר, חלק דיסציפלינה הנדסית 🧱

אבטחת בינה מלאכותית גנרטיבית היא חיה ייחודית בפני עצמה. אבטחת אפליקציות מסורתית עדיין חשובה, כמובן, אך מערכות בינה מלאכותית מוסיפות משטחי תקיפה יוצאי דופן: הזרקה מיידית, מניפולציה עקיפה של הנחיות, שימוש לא בטוח בכלים, חילוץ נתונים דרך הקשר ושימוש לרעה במודלים באמצעות זרימות עבודה אוטומטיות. 10 המובילים של OWASP עבור יישומי LLM NCSC בנושא בינה מלאכותית ואבטחת סייבר

המפתחים אחראים לאבטחת המערכת כולה, לא רק הממשק. הנחיות בינה מלאכותית מאובטחות של NCSC

תחומי האחריות המרכזיים כאן כוללים:

אמת לא נעימה אחת היא שמשתמשים - ותוקפים - בהחלט ינסו דברים שהמפתחים לא ציפו להם. חלקם מתוך סקרנות, חלקם מתוך כוונה זדונית, חלקם משום שלחצו על הדבר הלא נכון בשעה 2 לפנות בוקר. זה קורה.

אבטחה עבור בינה מלאכותית גנרטיבית היא פחות כמו בניית חומה ויותר כמו ניהול שומר סף דברן מאוד שלפעמים נרמס על ידי ניסוח.

שקיפות והסכמת משתמשים חשובות יותר מחוויית משתמש ראוותנית 🗣️

כאשר משתמשים מקיימים אינטראקציה עם בינה מלאכותית, עליהם לדעת זאת. עקרונות הבינה המלאכותית של ה-OECD בנושא סימון ותיוג של תוכן שנוצר על ידי בינה מלאכותית

לא במעורפל. לא קבור במונחים. באופן ברור.

חלק מרכזי באחריותם של מפתחים המשתמשים בבינה מלאכותית גנרטיבית הוא להבטיח שהמשתמשים מבינים:

שקיפות אינה עניין של להפחיד משתמשים. מדובר בכבודם.

שקיפות טובה עשויה לכלול:

הרבה צוותי מוצר חוששים שכנות תגרום לתכונה להרגיש פחות קסומה. אולי. אבל ודאות כוזבת גרועה יותר. ממשק חלק שמסתיר סיכון הוא בעצם בלבול מלוטש.

המפתחים נשארים אחראים - גם כאשר המודל "מחליט" 👀

חלק זה חשוב מאוד. לא ניתן להעביר את האחריות לספק המודל, לכרטיס המודל, לתבנית ההנחיה או לאווירה המסתורית של למידת מכונה. עקרונות הבינה המלאכותית של ה-OECD, NIST, AI RMF

מפתחים עדיין נושאים באחריות. עקרונות הבינה המלאכותית של ה-OECD

זה אומר שמישהו בצוות צריך להיות הבעלים של:

צריכות להיות תשובות ברורות לשאלות כמו:

בלי בעלות, אחריות הופכת לערפל. כולם מניחים שמישהו אחר מטפל בזה... ואז אף אחד לא.

האמת היא שהדפוס הזה עתיק יותר מבינה מלאכותית. בינה מלאכותית פשוט הופכת אותה למסוכנת יותר.

מפתחים אחראיים בונים לתיקון, לא לשלמות 🔄

הנה הטוויסט הקטן בכל הסיפור הזה: פיתוח אחראי של בינה מלאכותית אינו עוסק בהעמדת פנים שהמערכת תהיה מושלמת. מדובר בהנחה שהיא תיכשל בצורה כלשהי ותכנון סביב מציאות זו. NIST AI RMF

משמעות הדבר היא בניית מוצרים שהם:

כך נראית בגרות. לא הדגמות נוצצות. לא תוכן שיווקי עוצר נשימה. מערכות אמיתיות, עם מעקות בטיחות, יומני רישום, אחריות ומספיק ענווה כדי להודות שהמכונה אינה קוסמת. הנחיות בינה מלאכותית מאובטחות של NCSC, עקרונות בינה מלאכותית של OECD

כי זה לא. זה כלי. כלי רב עוצמה, כן. אבל עדיין כלי.

סקירה מסכמת על אחריותם של מפתחים המשתמשים בבינה מלאכותית גנרטיבית 🌍

אז מהי האחריות של מפתחים המשתמשים בבינה מלאכותית גנרטיבית ?

זה לבנות בזהירות. להטיל ספק היכן המערכת עוזרת והיכן היא פוגעת. להגן על הפרטיות. לבדוק הטיה. לאמת תוצאות. לאבטח את זרימת העבודה. להיות שקופים עם המשתמשים. לשמור על שליטה משמעותית של בני האדם. להישאר אחראים כאשר דברים משתבשים. NIST AI RMF עקרונות הבינה המלאכותית של ה-OECD

זה אולי נשמע כבד - וזה אכן כך. אבל זה גם מה שמבדיל בין פיתוח מתחשב לבין אוטומציה פזיזה.

המפתחים הטובים ביותר המשתמשים בבינה מלאכותית גנרטיבית אינם אלה שגורמים למודל לבצע הכי הרבה טריקים. הם אלה שמבינים את ההשלכות של הטריקים האלה, ומעצבים בהתאם. הם יודעים שמהירות חשובה, אבל אמון הוא המוצר האמיתי. באופן מוזר, הרעיון הישן הזה עדיין מחזיק מעמד. NIST AI RMF

בסופו של דבר, אחריות אינה מחסום לחדשנות. היא זו שמונעת מחדשנות מלהפוך להתפשטות יקרה וסוערת עם ממשק מלוטש ובעיית ביטחון 😬✨

ואולי זו הגרסה הפשוטה ביותר שלה.

בנו באומץ, בטח - אבל בנו כאילו אנשים עלולים להיות מושפעים, כי הם מושפעים. עקרונות הבינה המלאכותית של ה-OECD

שאלות נפוצות

מהי אחריותם של מפתחים המשתמשים בבינה מלאכותית גנרטיבית בפועל?

האחריות של מפתחים המשתמשים בבינה מלאכותית גנרטיבית משתרעת הרבה מעבר למשלוח מהיר של תכונות. היא כוללת בחירת מקרה השימוש הנכון, בדיקת פלטים, הגנה על פרטיות, צמצום התנהגות מזיקה והפיכת המערכת למובנת למשתמשים. בפועל, המפתחים נשארים אחראים לאופן שבו הכלי מתוכנן, מנוטר, מתוקן ומנוהל כאשר הוא נכשל.

מדוע בינה מלאכותית גנרטיבית דורשת יותר אחריות מפתח מאשר תוכנה רגילה?

באגים מסורתיים לרוב ברורים מאליהם, אך כשלים יצירתיים בבינה מלאכותית יכולים להישמע מלוטשים ועדיין להיות שגויים, מוטים או מסוכנים. זה מקשה על זיהוי בעיות וקל יותר למשתמשים לבטוח בהן בטעות. מפתחים עובדים עם מערכות הסתברותיות, ולכן האחריות כוללת התמודדות עם אי ודאות, הגבלת נזק והכנה לתפוקות בלתי צפויות לפני ההשקה.

כיצד מפתחים יודעים מתי אסור להשתמש בבינה מלאכותית גנרטיבית?

נקודת התחלה נפוצה היא לשאול האם המשימה פתוחה או שמא מטופלת בצורה טובה יותר על ידי כללים, חיפוש או לוגיקת תוכנה סטנדרטית. מפתחים צריכים גם לשקול כמה נזק תשובה שגויה עלולה לגרום והאם אדם יכול לבחון באופן מציאותי את התוצאות. שימוש אחראי לפעמים פירושו להחליט לא להשתמש בבינה מלאכותית גנרטיבית כלל.

כיצד יכולים מפתחים להפחית הזיות ותשובות שגויות במערכות בינה מלאכותית גנרטיבית?

דיוק צריך להיות מתוכנן, לא מוּנָח. בתהליכי עבודה רבים, משמעות הדבר היא ביסוס פלטים במקורות מהימנים, הפרדת טקסט שנוצר מעובדות מאומתות, ושימוש בזרימות עבודה לסקירה עבור משימות בעלות סיכון גבוה יותר. מפתחים צריכים גם לבדוק הנחיות שנועדו לבלבל או להטעות את המערכת, במיוחד בתחומים כמו קוד, תמיכה, פיננסים, חינוך ובריאות.

מהי אחריותם של מפתחים המשתמשים בבינה מלאכותית גנרטיבית לשמירה על פרטיות ונתונים רגישים?

האחריות של מפתחים המשתמשים בבינה מלאכותית גנרטיבית כוללת מזעור הנתונים הנכנסים למודל וטיפול בהנחיות, יומני רישום ופלט כרגישים. על המפתחים להסיר מזהים במידת האפשר, להגביל את השמירה, לשלוט בגישה ולסקור בקפידה את הגדרות הספקים. על המשתמשים גם להיות מסוגלים להבין כיצד הנתונים שלהם מטופלים, במקום לגלות את הסיכונים מאוחר יותר.

כיצד על מפתחים להתמודד עם הטיה והגינות בתפוקות בינה מלאכותית יצירתיות?

עבודה על הטיה דורשת הערכה פעילה, לא הנחות. גישה מעשית היא לבחון הנחיות על פני קבוצות דמוגרפיות, שפות והקשרים שונים, ולאחר מכן לבחון את התוצרים לאיתור סטריאוטיפים, הדרה או דפוסי כשל לא אחידים. מפתחים צריכים גם ליצור דרכים עבור משתמשים או צוותים לדווח על התנהגות מזיקה, מכיוון שמערכת יכולה להיראות חזקה באופן כללי ועדיין להיכשל באופן עקבי בקבוצות מסוימות.

אילו סיכוני אבטחה צריכים מפתחים לחשוב עליהם עם בינה מלאכותית גנרטיבית?

בינה מלאכותית גנרטיבית מציגה משטחי תקיפה חדשים, כולל הזרקה מהירה, שימוש לא בטוח בכלים, דליפת נתונים דרך הקשר וניצול לרעה של פעולות אוטומטיות. מפתחים צריכים לטהר קלט לא מהימן, להגביל הרשאות כלים, להגביל גישה לקבצים ולרשת, ולנטר דפוסים של שימוש לרעה. אבטחה אינה נוגעת רק לממשק; היא חלה על זרימת העבודה המלאה סביב המודל.

מדוע שקיפות חשובה כשבונים עם בינה מלאכותית גנרית?

על המשתמשים לדעת בבירור מתי מעורבת בינה מלאכותית, מה היא יכולה לעשות והיכן נמצאות מגבלותיה. שקיפות טובה יכולה לכלול תוויות כגון "נוצר על ידי בינה מלאכותית" או "בסיוע בינה מלאכותית", הסברים פשוטים ונתיבים ברורים לתמיכה אנושית. כנות כזו אינה מחלישה את המוצר; היא עוזרת למשתמשים לכייל אמון ולקבל החלטות טובות יותר.

מי אחראי כאשר תכונה יצירתית של בינה מלאכותית גורמת נזק או משבשת משהו?

מפתחים וצוותי מוצר עדיין אחראים לתוצאה, גם כאשר המודל מייצר את התשובה. משמעות הדבר היא שצריכה להיות אחריות ברורה לאישור פריסה, טיפול באירועים, החזרה למצב אחר, ניטור ותקשורת עם המשתמשים. "המודל החליט" אינו מספיק, מכיוון שהאחריות צריכה להישאר אצל האנשים שתכננו והשיקו את המערכת.

כיצד נראה פיתוח בינה מלאכותית גנרטיבית אחראי לאחר ההשקה?

פיתוח אחראי ממשיך לאחר השחרור באמצעות ניטור, משוב, סקירה ותיקון. מערכות חזקות ניתנות לביקורת, ניתנות להפסקה, ניתנות לשחזור, ומתוכננות עם נתיבי גיבוי כאשר הבינה המלאכותית נכשלת. המטרה אינה שלמות; זוהי בניית משהו שניתן לבחון, לשפר ולהתאים בבטחה ככל שמתגלות בעיות בעולם האמיתי.

הפניות

  1. המכון הלאומי לתקנים וטכנולוגיה (NIST) - פרופיל NIST GenAI - nvlpubs.nist.gov

  2. OWASP - 10 תוכניות OWASP המובילות עבור בקשות לתואר שני במשפטים - owasp.org

  3. משרד נציב המידע (ICO) - שמונה שאלות של ICO בנוגע לבינה מלאכותית גנרית - ico.org.uk

מצאו את הבינה המלאכותית העדכנית ביותר בחנות הרשמית של עוזרי בינה מלאכותית

אודותינו

חזרה לבלוג