اعتبار: NicoElNino/Shutterstock
وزارت بازرگانی ایالات متحده امروز پس از گذشت 270 روز از زمان ریاست جمهوری بایدن، اعلام کرد دستور اجرایی (EO) در مورد توسعه ایمن، ایمن و قابل اعتماد هوش مصنوعی، انتشار راهنمایی و نرم افزار جدید برای کمک به بهبود ایمنی، امنیت و قابل اعتماد بودن سیستم های هوش مصنوعی (AI).
مؤسسه ملی استاندارد و فناوری این وزارتخانه (NIST) سه سند راهنمای نهایی را منتشر کرد اولین بار در آوریل برای نظر عمومی منتشر شدو همچنین پیش نویس سند راهنمایی از موسسه ایمنی هوش مصنوعی ایالات متحده که برای کمک به کاهش خطرات در نظر گرفته شده است. NIST همچنین بسته نرم افزاری را منتشر می کند که برای اندازه گیری اینکه چگونه حملات خصمانه می توانند عملکرد یک سیستم هوش مصنوعی را کاهش دهند، طراحی شده است. علاوه بر این، اداره ثبت اختراع و علائم تجاری ایالات متحده (USPTO) به روز رسانی راهنمایی در مورد واجد شرایط بودن موضوع ثبت اختراع برای رسیدگی به نوآوری در فناوری های حیاتی و نوظهور، از جمله هوش مصنوعی، منتشر کرد.
با وجود تمام مزایای بالقوه تحولآفرین، هوش مصنوعی مولد همچنین خطراتی را به همراه دارد که به طور قابل توجهی با آنهایی که در نرم افزارهای سنتی می بینیم متفاوت است. این اسناد راهنمایی و پلت فرم آزمایشی، سازندگان نرم افزار را در مورد این خطرات منحصر به فرد آگاه می کند و به آنها کمک می کند تا راه هایی برای کاهش این خطرات و در عین حال حمایت از نوآوری ایجاد کنند. –Laurie E. Locascio، معاون وزیر بازرگانی برای استانداردها و فناوری و مدیر NIST
انتشار کامل اخبار وزارت بازرگانی را بخوانید.
برگه اطلاعات کاخ سفید در مورد اقدامات دولت در مورد هوش مصنوعی را بخوانید.
پیشینه: NIST 5 محصول را در پاسخ به دستور اجرایی 2023 در AI ارائه می کند
نسخه های NIST جنبه های مختلفی از فناوری هوش مصنوعی را پوشش می دهد. دو مورد از آنها امروز برای اولین بار ظاهر می شوند: یکی پیش نویس عمومی اولیه یک سند راهنمایی از موسسه ایمنی هوش مصنوعی ایالات متحده است و در نظر گرفته شده است که به توسعه دهندگان نرم افزار کمک کند تا خطرات ناشی از هوش مصنوعی مولد و مدل های پایه با استفاده دوگانه – سیستم های هوش مصنوعی را کاهش دهند. که می تواند برای اهداف مفید یا مضر استفاده شود. مورد دیگر یک پلتفرم آزمایشی است که برای کمک به کاربران و توسعه دهندگان سیستم هوش مصنوعی طراحی شده است که چگونه انواع خاصی از حملات می توانند عملکرد یک سیستم هوش مصنوعی را کاهش دهند.
از سه نسخه باقی مانده، دو سند راهنمایی هستند که برای کمک به مدیریت خطرات هوش مصنوعی مولد طراحی شده اند – فناوری که بسیاری از ربات های چت و همچنین ابزارهای ایجاد تصویر و ویدیو مبتنی بر متن را فعال می کند – و به عنوان منابع همراه چارچوب مدیریت ریسک هوش مصنوعی NIST عمل می کند.من RFM دارم) و چارچوب توسعه نرم افزار امن (SSDF). سومین طرحی را برای ذینفعان ایالات متحده پیشنهاد می کند تا با سایرین در سراسر جهان بر روی استانداردهای هوش مصنوعی کار کنند. این سه نشریه قبلاً در 29 آوریل به صورت پیش نویس برای نظر عمومی ظاهر شدند و NIST اکنون نسخه نهایی آنها را منتشر می کند.
دو نسخه ای که NIST امروز برای اولین بار اعلام می کند عبارتند از:
جلوگیری از استفاده نادرست از مدل های پایه دو منظوره
مدلهای پایه هوش مصنوعی ابزارهای قدرتمندی هستند که برای طیف گستردهای از وظایف مفید هستند و گاهی اوقات به دلیل پتانسیل آنها برای منافع و مضرات، «کاربرد دوگانه» نامیده میشوند. موسسه ایمنی هوش مصنوعی NIST پیش نویس عمومی اولیه دستورالعمل های خود را منتشر کرده است مدیریت ریسک استفاده نادرست برای مدل های بنیادی با استفاده دوگانه (NIST AI 800-1) که بهترین شیوه های داوطلبانه را برای چگونگی محافظت از سیستم های خود در برابر سوء استفاده برای ایجاد آسیب عمدی به افراد، امنیت عمومی و امنیت ملی بیان می کند.
پیش نویس دستورالعمل هفت رویکرد کلیدی برای کاهش خطرات ناشی از سوء استفاده از مدل ها، همراه با توصیه هایی برای نحوه اجرای آنها و نحوه شفاف سازی در مورد اجرای آنها ارائه می دهد. این شیوهها با هم میتوانند به جلوگیری از آسیب رساندن به مدلها از طریق فعالیتهایی مانند توسعه سلاحهای بیولوژیکی، انجام عملیات سایبری توهینآمیز، و تولید مواد سوء استفاده جنسی از کودکان و تصاویر صمیمی غیر توافقی کمک کنند.
NIST نظرات مردم در مورد پیش نویس را می پذیرد مدیریت ریسک استفاده نادرست برای مدل های پایه دوکاره تا 9 سپتامبر 2024، ساعت 11:59 بعد از ظهر به وقت شرقی. نظرات را می توان ارسال کرد به NISTAI800-1 (در) nist.gov (NISTAI800-1(at)nist(dot)gov).
آزمایش نحوه واکنش مدلهای سیستم هوش مصنوعی به حملات
یکی از آسیبپذیریهای یک سیستم هوش مصنوعی، مدل موجود در هسته آن است. با قرار دادن یک مدل در معرض مقادیر زیادی از داده های آموزشی، تصمیم گیری را یاد می گیرد. اما اگر دشمنان داده های آموزشی را مسموم کنند با عدم دقت – به عنوان مثال، با معرفی داده هایی که می تواند باعث شود مدل علائم توقف را به عنوان علائم محدودیت سرعت به اشتباه شناسایی کند – مدل می تواند تصمیمات نادرست و بالقوه فاجعه بار بگیرد. آزمایش اثرات حملات خصمانه بر روی مدلهای یادگیری ماشینی یکی از اهداف Dioptra است، بسته نرمافزاری جدیدی که هدف آن کمک به توسعهدهندگان و مشتریان هوش مصنوعی است تا بفهمند که نرمافزار هوش مصنوعی آنها تا چه اندازه در برابر انواع حملات خصمانه مقاومت میکند.
نرم افزار متن باز، برای دانلود رایگان موجود است، می تواند به جامعه از جمله سازمان های دولتی و کسب و کارهای کوچک و متوسط کمک کند تا ارزیابی هایی را برای ارزیابی ادعاهای توسعه دهندگان هوش مصنوعی در مورد عملکرد سیستم هایشان انجام دهند. این نرم افزار به بخش 4.1 (ii) (B) Executive Order پاسخ می دهد، که به NIST برای کمک به آزمایش مدل نیاز دارد. Dioptra این کار را با اجازه دادن به کاربر برای تعیین نوع حملاتی که باعث میشود مدل عملکرد کمتری داشته باشد و کمی کردن کاهش عملکرد انجام میدهد تا کاربر بتواند بفهمد که سیستم چقدر و در چه شرایطی از کار میافتد.
افزودن دو نسخه اولیه امروز سه سند نهایی شده است:
کاهش خطرات هوش مصنوعی مولد
را نمایه هوش مصنوعی مولد AI RMF (NIST AI 600-1) می تواند به سازمان ها کمک کند تا خطرات منحصر به فرد ناشی از هوش مصنوعی مولد را شناسایی کنند و اقداماتی را برای مدیریت ریسک هوش مصنوعی مولد پیشنهاد کند که به بهترین وجه با اهداف و اولویت های آنها هماهنگ باشد. این راهنما به عنوان یک منبع همراه برای کاربران NIST در نظر گرفته شده است من RFM دارم. این بر لیستی از 12 خطر و بیش از 200 اقدام متمرکز است که توسعه دهندگان می توانند برای مدیریت آنها انجام دهند.
این 12 خطر شامل کاهش مانع برای ورود به حملات امنیت سایبری، تولید اطلاعات نادرست و نادرست یا سخنان مشوق نفرت و سایر محتوای مضر، و سیستم های هوش مصنوعی تولیدی است که خروجی های مخدوش یا “توهم” را ایجاد می کند. پس از تشریح هر ریسک، سند ماتریسی از اقداماتی را ارائه میکند که توسعهدهندگان میتوانند برای کاهش آن انجام دهند، نقشهبرداری شده با AI RMF.
کاهش تهدیدات برای داده های مورد استفاده برای آموزش سیستم های هوش مصنوعی
دومین انتشار نهایی، شیوههای توسعه نرمافزار ایمن برای مدلهای مبتنی بر هوش مصنوعی و استفاده دوگانه (NIST انتشارات ویژه (SP) 800-218A، برای استفاده در کنار چارچوب توسعه نرم افزار امن (SP 800-218). در حالی که SSDF به طور گسترده با شیوههای کدگذاری نرمافزار سروکار دارد، منبع همراه SSDF را تا حدی گسترش میدهد تا به یک نگرانی عمده در مورد سیستمهای هوش مصنوعی مولد رسیدگی کند: با داده های آموزشی مخرب در خطر است که بر عملکرد سیستم هوش مصنوعی تأثیر منفی می گذارد.
این سند راهنما علاوه بر پوشش جنبههای آموزش و استفاده از سیستمهای هوش مصنوعی، عوامل خطر و استراتژیهای بالقوه برای رسیدگی به آنها را شناسایی میکند. از جمله توصیه های دیگر، الفتجزیه و تحلیل داده های آموزشی برای علائم مسمومیت، سوگیری، همگنی و دستکاری.
مشارکت جهانی در استانداردهای هوش مصنوعی
سیستم های هوش مصنوعی نه تنها در ایالات متحده، بلکه در سراسر جهان جامعه را متحول می کنند. طرحی برای مشارکت جهانی در استانداردهای هوش مصنوعی (NIST AI 100-5)، سومین انتشار نهایی امروز، برای هدایت توسعه جهانی و اجرای استانداردهای اجماع مرتبط با هوش مصنوعی، همکاری و هماهنگی و به اشتراک گذاری اطلاعات طراحی شده است.
این راهنمایی بر اساس اولویتهای مشخص شده در NIST ارائه شده است برنامه ریزی برای تعامل فدرال در استانداردهای هوش مصنوعی و ابزارهای مرتبط و به استراتژی استانداردهای ملی برای فناوری های حیاتی و نوظهور. این نشریه پیشنهاد میکند که طیف وسیعتری از ذینفعان چند رشتهای از بسیاری از کشورها در فرآیند توسعه استانداردها شرکت کنند.
Source link
