سانفرانسیسکو، کالیفرنیا – امروز وزارت بازرگانی ایالات متحده و وزارت امور خارجه ایالات متحده میزبانی مشترک افتتاحیه شبکه بین المللی مؤسسات ایمنی هوش مصنوعی، یک تلاش جهانی جدید برای پیشرفت علم ایمنی هوش مصنوعی و امکان همکاری در زمینه تحقیق، بهترین شیوه ها و ارزیابی هستند. برای استفاده از مزایای عظیم هوش مصنوعی، ایجاد یک اکوسیستم بین المللی قوی برای کمک به شناسایی و کاهش خطرات ناشی از این فناوری پیشرفت ضروری است. از طریق این شبکه، ایالات متحده امیدوار است به برخی از مهمترین چالشهای ایمنی هوش مصنوعی رسیدگی کند و از مجموعهای از حاکمیت جهانی که میتواند مانع نوآوری شود، اجتناب کند.
ایالات متحده به عنوان رئیس افتتاحیه شبکه بین المللی مؤسسات ایمنی هوش مصنوعی، که اعضای اولیه آن شامل استرالیا، کانادا، اتحادیه اروپا، فرانسه، ژاپن، کنیا، جمهوری کره، سنگاپور، بریتانیا و ایالات متحده است، ایفای نقش خواهد کرد. ایالات.
طی دو روز آینده در سانفرانسیسکو، کالیفرنیا، کارشناسان فنی دولتهای عضو با توسعهدهندگان برجسته هوش مصنوعی، دانشگاهیان، رهبران جامعه مدنی، و دانشمندانی از دولتهای غیرشبکه همراه خواهند شد تا در مورد زمینههای کلیدی همکاری در مورد ایمنی هوش مصنوعی بحث و گفتگو کنند و فنی خود را به آنها ارائه دهند. و تخصص علمی به ماموریت شبکه.
این نشست به عنوان یک جلسه کاری فنی تشکیل شده است که به سه موضوع با اولویت بالا که فوراً از هماهنگی بینالمللی سود میبرند، میپردازد، به ویژه: (1) مدیریت خطرات ناشی از محتوای مصنوعی، (2) آزمایش مدلهای پایه و (3) انجام ریسک. ارزیابی سیستم های هوش مصنوعی پیشرفته
با گرد هم آوردن ذهنهای پیشرو در سراسر دولتها، صنعت، دانشگاهها و جامعه مدنی، امیدواریم همکاری بینالمللی معناداری را در زمینه ایمنی و نوآوری هوش مصنوعی آغاز کنیم، بهویژه زمانی که در راستای اجلاس آتی اقدام هوش مصنوعی در فرانسه در فوریه و بعد از آن تلاش میکنیم.
1) اتخاذ بیانیه ماموریت همسو برای شبکه بین المللی مؤسسات ایمنی هوش مصنوعی.
- راه اندازی شبکه بین المللی مؤسسات ایمنی هوش مصنوعی یک گام اساسی به جلو برای هماهنگی جهانی در زمینه نوآوری ایمن هوش مصنوعی است. این شبکه اعضای خود را قادر میسازد تا از ظرفیت فنی مربوطه خود برای هماهنگ کردن رویکردها و به حداقل رساندن منابع تکراری استفاده کنند، در حالی که بستری برای گرد هم آوردن تخصص فنی جهانی فراهم میکند.
- قبل از تشکیل جلسه افتتاحیه شبکه، همه 10 عضو اولیه با یک مشترک موافقت کردند بیانیه ماموریت که در بخشی از آن آمده است:
- «شبکه بینالمللی مؤسسههای ایمنی هوش مصنوعی در نظر گرفته شده است تا انجمنی باشد که تخصص فنی را از سراسر جهان گرد هم میآورد. با درک اهمیت تنوع فرهنگی و زبانی، هدف ما تسهیل درک فنی مشترک از خطرات ایمنی هوش مصنوعی و کاهش آن بر اساس کار موسسات ما و جامعه علمی گستردهتر است که از توسعه بینالمللی و اتخاذ اصول و بهترین شیوههای کارآمد حمایت میکند. . ما همچنین قصد داریم درک کلی و رویکرد ایمنی هوش مصنوعی را در سطح جهانی تشویق کنیم، که این امکان را فراهم می کند که مزایای نوآوری هوش مصنوعی در بین کشورها در تمام مراحل توسعه به اشتراک گذاشته شود.
- اعضای شبکه بینالمللی همچنین در چهار حوزه اولویتدار همکاری همسو شدهاند: پیگیری تحقیقات ایمنی هوش مصنوعی، توسعه بهترین شیوهها برای آزمایش و ارزیابی مدل، تسهیل رویکردهای رایج مانند تفسیر تستهای سیستمهای هوش مصنوعی پیشرفته، و پیشبرد گنجاندن جهانی و اشتراکگذاری اطلاعات.
- مؤسسه ایمنی هوش مصنوعی ایالات متحده (US AISI) به عنوان رئیس افتتاحیه شبکه بین المللی مؤسسات ایمنی هوش مصنوعی خدمت خواهد کرد و اعضای شبکه جزئیات بیشتری از حاکمیت، ساختار و آهنگ جلسات را در این گردهمایی مورد بحث قرار خواهند داد.
- این شبکه همچنین در مورد اولویتها و نقشه راه برای ادامه کار به سمت نشست آتی اقدام هوش مصنوعی در پاریس در فوریه 2025 و پس از آن بحث خواهد کرد.
2) اعلام بیش از 11 میلیون دلار تعهدات مالی تحقیقاتی جهانی برای رسیدگی به برنامه تحقیقاتی مشترک جدید شبکه بین المللی در کاهش خطرات ناشی از محتوای مصنوعی.
- با ظهور هوش مصنوعی مولد و توسعه و پذیرش سریع مدلهای هوش مصنوعی بسیار توانمند، اکنون تولید محتوای مصنوعی در مقیاس آسانتر، سریعتر و کمهزینهتر از همیشه است. اگرچه طیف وسیعی از کاربردهای مثبت و بی ضرر برای محتوای مصنوعی وجود دارد، اما خطراتی نیز وجود دارد که باید شناسایی، تحقیق و کاهش داده شود تا از آسیب های واقعی جلوگیری شود – مانند تولید و توزیع مواد سوء استفاده جنسی از کودکان و غیر توافقی. تصویرسازی جنسی، یا تسهیل کلاهبرداری و جعل هویت.
- شبکه بینالمللی مؤسسههای ایمنی هوش مصنوعی برای پیشبرد وضعیت علم و اطلاعرسانی راههای جدید برای کاهش خطرات محتوای مصنوعی، یک برنامه تحقیقاتی مشترک را ترسیم کرده است که خواستار تحقیق فوری و عملی توسط جامعه علمی در مورد شکافهای کلیدی در ادبیات فعلی است.
- موضوعات تحقیق اولویت شامل درک امنیت و استحکام تکنیکهای شفافیت محتوای دیجیتال فعلی، کاوش روشهای جدید و نوظهور شفافیت محتوای دیجیتال، و توسعه مدلهای حفاظتی برای جلوگیری از تولید و توزیع محتوای مصنوعی مضر است.
- برنامه تحقیقاتی شبکه بینالمللی رویکردی چند رشتهای را تشویق میکند، از جمله کاهشهای فنی و همچنین ارزیابیهای علمی اجتماعی و انسانی برای شناسایی مشکلات و راهحلها.
- در پاسخ به این دستور کار، سازمان های دولتی و چندین موسسه خیریه برجسته در مجموع بیش از 11 میلیون دلار (دلار آمریکا) برای تشویق این تحقیق حیاتی متعهد شده اند.
- ایالات متحده، از طریق USAID، 3.8 میلیون دلار تعیین کرده است این سال مالی برای تقویت ظرفیتسازی، تحقیق و استقرار هوش مصنوعی ایمن و مسئولانه در کشورهای شریک USAID در خارج از کشور، از جمله حمایت از تحقیقات در زمینه کاهش خطر محتوای مصنوعی.
- استرالیا از طریق آژانس ملی علمی خود، سازمان تحقیقات علمی و صنعتی مشترک المنافع (CSIRO)، سالانه 2.2 میلیون دلار (AUD) (1.42 میلیون دلار آمریکا) در تحقیقاتی با هدف شناسایی و کاهش خطرات محتوای مصنوعی سرمایه گذاری می کند.
- جمهوری کره سالانه 1.8 میلیون دلار (USD) به مدت 4 سال، که مجموعاً 7.2 میلیون دلار (USD) میشود، برای تلاشهای تحقیق و توسعه برای شناسایی، پیشگیری و کاهش خطرات محتوای مصنوعی از طریق برنامه ROK AISI اختصاص خواهد داد.
- بنیاد جان اس و جیمز ال.om محتوای مصنوعی
- صندوق ایمنی هوش مصنوعی (AISF)، یک همکاری غیرانتفاعی مستقل بین توسعه دهندگان پیشرو هوش مصنوعی و شرکای بشردوستانه، یک میلیون دلار (USD) در حمایت از دستور کار تحقیقاتی با تمرکز بر پادمان در طراحی، استفاده و ارزیابی کمک خواهد کرد. مدلها و سیستمهای هوش مصنوعی برای کاهش خطرات امنیتی و ایمنی عمومی از خروجیهای مدل.
- 250,000 دلار اضافی (USD) در سال 2025 توسط شبکه امیدیار برای حمایت از دستور کار تحقیقاتی متعهد شده است.
- در این گردهمایی، شبکه بینالمللی همچنین در مورد اصول شبکه مشترک برای کاهش خطرات محتوای مصنوعی، از جمله بهترین شیوهها و نوآوریها برای بهبود امنیت، قابلیت اطمینان، حریم خصوصی، شفافیت و دسترسی به هوش مصنوعی مولد بحث خواهد کرد. این ورودی ها به پیشبرد دیدگاه همسو از اعضا کمک می کند، که امیدواریم در نشست آتی اقدام هوش مصنوعی فرانسه به اشتراک بگذاریم.
- برای حمایت از این کار، AISI ایالات متحده نسخه نهایی اولین گزارش راهنمای محتوای مصنوعی خود را منتشر می کند. NIST AI 100-4: کاهش خطرات ناشی از محتوای مصنوعی، که مجموعه ای از رویکردهای داوطلبانه را برای مقابله با خطرات ناشی از محتوای تولید شده توسط هوش مصنوعی مانند مطالب سوء استفاده جنسی از کودکان، جعل هویت و کلاهبرداری شناسایی می کند.
- این نسخه نهایی منعکس کننده ورودی و بازخورد مجموعه ای از کارشناسان خارجی و نظرات عمومی است که طی چند ماه گذشته درخواست شده است.
(3) بینش روششناختی در مورد تلاشهای چندزبانه و بینالمللی تست هوش مصنوعی از اولین تمرین آزمایش مشترک شبکه بینالمللی مؤسسههای ایمنی هوش مصنوعی.
- شبکه بینالمللی مؤسسات ایمنی هوش مصنوعی اولین تمرین آزمایشی مشترک خود را که توسط کارشناسان فنی از AISI ایالات متحده، AISI بریتانیا و مرکز اعتماد دیجیتال سنگاپور رهبری میشد، تکمیل کرد.
- شبکه این تمرین را برای بررسی چالشهای روششناختی، فرصتها و گامهای بعدی برای کار مشترکی که شبکه میتواند برای پیشبرد تستهای ایمنی هوش مصنوعی قویتر و قابل تکرار در زبانها، فرهنگها و زمینهها دنبال کند، انجام داد.
- این تمرین ملاحظات کلیدی را برای آزمایش بینالمللی مطرح کرد، مانند تأثیری که تفاوتهای روششناختی کوچک و تکنیکهای بهینهسازی مدل میتواند بر نتایج ارزیابی داشته باشد، و استراتژیهایی را برای کاهش بالقوه این چالشها برجسته کرد.
- این تمرین بر روی Meta's Llama 3.1 405B برای آزمایش در سه موضوع – دانش عمومی آکادمیک، توهمات با دامنه بسته و قابلیت های چند زبانه – انجام شد و به عنوان آزمایشی برای یک تمرین آزمایشی مشترک گسترده تر که منجر به اجلاس AI Action Summit خواهد شد، انجام شد. فوریه امسال در پاریس را آموخته های حاصل از آزمایش آزمایشی فرآیند همچنین زمینه را برای آزمایش های آینده در سراسر مرزهای بین المللی و ارزیابی بهترین شیوه ها فراهم خواهد کرد.
(4) بیانیه مشترک در مورد ارزیابی ریسک سیستم های پیشرفته هوش مصنوعی، از جمله طرحی برای پیشبرد همسویی شبکه بین المللی.
- ارزیابی خطرات سیستمهای هوش مصنوعی پیشرفته چالشهای جدیدی را ارائه میکند، و در مأموریت شبکه بینالمللی مؤسسات ایمنی هوش مصنوعی پرداختن به این چالشها و همراستایی با چارچوبی برای درک خطرات و قابلیتهای ناشی از این فناوری، مرکزی است.
- شبکه بینالمللی موسسات ایمنی هوش مصنوعی با درک این موضوع که علم ارزیابی ریسک هوش مصنوعی به تکامل خود ادامه میدهد و هر عضو شبکه در چارچوب منحصر به فرد خود عمل میکند، موافقت کرد که یک مبنای علمی مشترک برای ارزیابی ریسکبا تکیه بر شش جنبه کلیدی که توسط شبکه مشخص شده است – یعنی ارزیابی ریسک باید (1) قابل اجرا، (2) شفاف، (3) جامع، (4) چند ذی نفع، (5) تکراری و (6) قابل تکرار باشد.
- این رویکرد مشترک مبتنی بر تعهدات مندرج در بیانیه بلچلی و بیانیه قصد سئول، و همچنین پیشرفت های حاصل شده از طریق OECD، فرآیند G7 هیروشیما، تعهدات ایمنی مرزی هوش مصنوعی و سایر ابتکارات ایمنی بین المللی مرتبط با هوش مصنوعی است.
- در این گردهمایی، شبکه بینالمللی بازخورد و بینش را از اعضا و کارشناسان گردآوری شده در مورد چگونگی عملیاتی کردن یک رویکرد مشترک برای ارزیابی ریسک و ایجاد یک نقشه راه برای پیشبرد همسویی و قابلیت همکاری جهانی درخواست خواهد کرد.
(5) ایجاد یک کارگروه جدید دولت ایالات متحده به رهبری مؤسسه ایمنی هوش مصنوعی ایالات متحده برای همکاری در تحقیق و آزمایش مدل های هوش مصنوعی برای مدیریت قابلیت ها و خطرات امنیت ملی.
- را آزمایش خطرات هوش مصنوعی برای گروه ویژه امنیت ملی (TRAINS). کارشناسان وزارت بازرگانی، دفاع، انرژی، امنیت داخلی، و همچنین آژانس امنیت ملی (NSA) و مؤسسه ملی بهداشت (NIH) را برای رسیدگی به نگرانیهای امنیت ملی و تقویت رهبری آمریکا در نوآوری هوش مصنوعی گرد هم میآورد.
- Task Force تحقیقات هماهنگ و آزمایش مدلهای هوش مصنوعی پیشرفته را در حوزههای حیاتی امنیت ملی و امنیت عمومی، مانند امنیت رادیولوژیکی و هستهای، امنیت شیمیایی و بیولوژیکی، امنیت سایبری، زیرساختهای حیاتی، قابلیتهای نظامی متعارف، و موارد دیگر امکانپذیر میسازد.
- این تلاشها ضرورت دولت ایالات متحده را برای حفظ رهبری آمریکا در توسعه هوش مصنوعی و جلوگیری از سوء استفاده دشمنان از نوآوری آمریکا برای تضعیف امنیت ملی، افزایش میدهد.
-
اطلاعات بیشتر را می توان در اینجا در بیانیه مطبوعاتی.
برای سوالات مطبوعاتی، لطفا تماس بگیرید usaisi (در) nist.gov

Source link
