آژانس بریتانیا ابزار جدیدی برای ارزیابی ایمنی هوش مصنوعی منتشر کرد
آژانس بریتانیا مجموعهای از ابزارها را تحت عنوان Inspect و تحت مجوز منبع باز MIT منتشر کرده است. این ابزارها با هدف ارزیابی قابلیتهای خاص مدلهای هوش مصنوعی، مانند دانش اصلی و توانایی استدلال آنها طراحی شدهاند و به ایجاد امتیاز بر اساس نتایج بررسیها میپردازند.
مؤسسه ایمنی هوش مصنوعی بریتانیا، Inspect را برای تقویت ایمنی هوش مصنوعی منتشر میکند
مؤسسه ایمنی هوش مصنوعی بریتانیا، که به تازگی تأسیس شده است، ابزارهای Inspect را برای تسهیل ارزیابیهای هوش مصنوعی در صنعت، سازمانهای تحقیقاتی، و دانشگاهها طراحی و منتشر کرده است. این ابزارها با هدف ارتقاء سطح ایمنی در استفاده از هوش مصنوعی ارائه شدهاند.
Inspect؛ اولین پلتفرم تست ایمنی هوش مصنوعی تحت نظارت دولتی
مؤسسه ایمنی هوش مصنوعی بیان کرده است که Inspect اولین پلتفرم تست ایمنی هوش مصنوعی است که توسط نهاد دولتی رهبری میشود. ایان هوگارت، رئیس مؤسسه، تأکید کرده که همکاری موفقیتآمیز در آزمایشهای ایمنی هوش مصنوعی به ایجاد رویکرد مشترک و در دسترس برای ارزیابی منجر خواهد شد.
چگونگی مقابله Inspect با چالشهای ارزیابی هوش مصنوعی
Inspect با استفاده از تکنیکهای آزمایشی جدید به چالشهای ارزیابی مدلهای هوش مصنوعی، که اغلب به عنوان جعبههای سیاه شناخته میشوند، میپردازد. این پلتفرم شامل مجموعه دادهها، حلکنندهها و امتیازدهندگان است که نمونههای آزمون ارائه میدهند، تستها را انجام میدهند و نتایج را ارزیابی میکنند.
تعهدات بینالمللی برای پیشبرد ایمنی هوش مصنوعی
پس از تعهدات اعلام شده در اجلاس ایمنی هوش مصنوعی بریتانیا، ایالات متحده و بریتانیا همکاری مشترکی را برای توسعه آزمایش مدلهای پیشرفته هوش مصنوعی آغاز کردهاند. در این راستا، ایالات متحده قصد دارد مؤسسه ایمنی هوش مصنوعی خود را راهاندازی کند، که وظیفه گستردهای در ارزیابی خطرات ناشی از هوش مصنوعی و هوش مصنوعی مولد را بر عهده خواهد گرفت.