برگه اطلاعات: وزارت بازرگانی و وزارت امور خارجه ایالات متحده شبکه بین المللی مؤسسات ایمنی هوش مصنوعی را در نشست افتتاحیه در سانفرانسیسکو راه اندازی کردند. - آزمایشگاه کالیبراسیون سازمان پژوهش‌های علمی و صنعتی ایران

برگه اطلاعات: وزارت بازرگانی و وزارت امور خارجه ایالات متحده شبکه بین المللی مؤسسات ایمنی هوش مصنوعی را در نشست افتتاحیه در سانفرانسیسکو راه اندازی کردند.

folder_openتازه ترین ها

سانفرانسیسکو، کالیفرنیا – امروز وزارت بازرگانی ایالات متحده و وزارت امور خارجه ایالات متحده میزبانی مشترک افتتاحیه شبکه بین المللی مؤسسات ایمنی هوش مصنوعی، یک تلاش جهانی جدید برای پیشرفت علم ایمنی هوش مصنوعی و امکان همکاری در زمینه تحقیق، بهترین شیوه ها و ارزیابی هستند. برای استفاده از مزایای عظیم هوش مصنوعی، ایجاد یک اکوسیستم بین المللی قوی برای کمک به شناسایی و کاهش خطرات ناشی از این فناوری پیشرفت ضروری است. از طریق این شبکه، ایالات متحده امیدوار است به برخی از مهم‌ترین چالش‌های ایمنی هوش مصنوعی رسیدگی کند و از مجموعه‌ای از حاکمیت جهانی که می‌تواند مانع نوآوری شود، اجتناب کند.

ایالات متحده به عنوان رئیس افتتاحیه شبکه بین المللی مؤسسات ایمنی هوش مصنوعی، که اعضای اولیه آن شامل استرالیا، کانادا، اتحادیه اروپا، فرانسه، ژاپن، کنیا، جمهوری کره، سنگاپور، بریتانیا و ایالات متحده است، ایفای نقش خواهد کرد. ایالات.

طی دو روز آینده در سانفرانسیسکو، کالیفرنیا، کارشناسان فنی دولت‌های عضو با توسعه‌دهندگان برجسته هوش مصنوعی، دانشگاهیان، رهبران جامعه مدنی، و دانشمندانی از دولت‌های غیرشبکه همراه خواهند شد تا در مورد زمینه‌های کلیدی همکاری در مورد ایمنی هوش مصنوعی بحث و گفتگو کنند و فنی خود را به آنها ارائه دهند. و تخصص علمی به ماموریت شبکه.

این نشست به عنوان یک جلسه کاری فنی تشکیل شده است که به سه موضوع با اولویت بالا که فوراً از هماهنگی بین‌المللی سود می‌برند، می‌پردازد، به ویژه: (1) مدیریت خطرات ناشی از محتوای مصنوعی، (2) آزمایش مدل‌های پایه و (3) انجام ریسک. ارزیابی سیستم های هوش مصنوعی پیشرفته

با گرد هم آوردن ذهن‌های پیشرو در سراسر دولت‌ها، صنعت، دانشگاه‌ها و جامعه مدنی، امیدواریم همکاری بین‌المللی معناداری را در زمینه ایمنی و نوآوری هوش مصنوعی آغاز کنیم، به‌ویژه زمانی که در راستای اجلاس آتی اقدام هوش مصنوعی در فرانسه در فوریه و بعد از آن تلاش می‌کنیم.

1) اتخاذ بیانیه ماموریت همسو برای شبکه بین المللی مؤسسات ایمنی هوش مصنوعی.

  • راه اندازی شبکه بین المللی مؤسسات ایمنی هوش مصنوعی یک گام اساسی به جلو برای هماهنگی جهانی در زمینه نوآوری ایمن هوش مصنوعی است. این شبکه اعضای خود را قادر می‌سازد تا از ظرفیت فنی مربوطه خود برای هماهنگ کردن رویکردها و به حداقل رساندن منابع تکراری استفاده کنند، در حالی که بستری برای گرد هم آوردن تخصص فنی جهانی فراهم می‌کند.
  • قبل از تشکیل جلسه افتتاحیه شبکه، همه 10 عضو اولیه با یک مشترک موافقت کردند بیانیه ماموریت که در بخشی از آن آمده است:
  • «شبکه بین‌المللی مؤسسه‌های ایمنی هوش مصنوعی در نظر گرفته شده است تا انجمنی باشد که تخصص فنی را از سراسر جهان گرد هم می‌آورد. با درک اهمیت تنوع فرهنگی و زبانی، هدف ما تسهیل درک فنی مشترک از خطرات ایمنی هوش مصنوعی و کاهش آن بر اساس کار موسسات ما و جامعه علمی گسترده‌تر است که از توسعه بین‌المللی و اتخاذ اصول و بهترین شیوه‌های کارآمد حمایت می‌کند. . ما همچنین قصد داریم درک کلی و رویکرد ایمنی هوش مصنوعی را در سطح جهانی تشویق کنیم، که این امکان را فراهم می کند که مزایای نوآوری هوش مصنوعی در بین کشورها در تمام مراحل توسعه به اشتراک گذاشته شود.
  • اعضای شبکه بین‌المللی همچنین در چهار حوزه اولویت‌دار همکاری همسو شده‌اند: پیگیری تحقیقات ایمنی هوش مصنوعی، توسعه بهترین شیوه‌ها برای آزمایش و ارزیابی مدل، تسهیل رویکردهای رایج مانند تفسیر تست‌های سیستم‌های هوش مصنوعی پیشرفته، و پیشبرد گنجاندن جهانی و اشتراک‌گذاری اطلاعات.
  • مؤسسه ایمنی هوش مصنوعی ایالات متحده (US AISI) به عنوان رئیس افتتاحیه شبکه بین المللی مؤسسات ایمنی هوش مصنوعی خدمت خواهد کرد و اعضای شبکه جزئیات بیشتری از حاکمیت، ساختار و آهنگ جلسات را در این گردهمایی مورد بحث قرار خواهند داد.
  • این شبکه همچنین در مورد اولویت‌ها و نقشه راه برای ادامه کار به سمت نشست آتی اقدام هوش مصنوعی در پاریس در فوریه 2025 و پس از آن بحث خواهد کرد.

2) اعلام بیش از 11 میلیون دلار تعهدات مالی تحقیقاتی جهانی برای رسیدگی به برنامه تحقیقاتی مشترک جدید شبکه بین المللی در کاهش خطرات ناشی از محتوای مصنوعی.

  • با ظهور هوش مصنوعی مولد و توسعه و پذیرش سریع مدل‌های هوش مصنوعی بسیار توانمند، اکنون تولید محتوای مصنوعی در مقیاس آسان‌تر، سریع‌تر و کم‌هزینه‌تر از همیشه است. اگرچه طیف وسیعی از کاربردهای مثبت و بی ضرر برای محتوای مصنوعی وجود دارد، اما خطراتی نیز وجود دارد که باید شناسایی، تحقیق و کاهش داده شود تا از آسیب های واقعی جلوگیری شود – مانند تولید و توزیع مواد سوء استفاده جنسی از کودکان و غیر توافقی. تصویرسازی جنسی، یا تسهیل کلاهبرداری و جعل هویت.
  • شبکه بین‌المللی مؤسسه‌های ایمنی هوش مصنوعی برای پیشبرد وضعیت علم و اطلاع‌رسانی راه‌های جدید برای کاهش خطرات محتوای مصنوعی، یک برنامه تحقیقاتی مشترک را ترسیم کرده است که خواستار تحقیق فوری و عملی توسط جامعه علمی در مورد شکاف‌های کلیدی در ادبیات فعلی است.
    • موضوعات تحقیق اولویت شامل درک امنیت و استحکام تکنیک‌های شفافیت محتوای دیجیتال فعلی، کاوش روش‌های جدید و نوظهور شفافیت محتوای دیجیتال، و توسعه مدل‌های حفاظتی برای جلوگیری از تولید و توزیع محتوای مصنوعی مضر است.
    • برنامه تحقیقاتی شبکه بین‌المللی رویکردی چند رشته‌ای را تشویق می‌کند، از جمله کاهش‌های فنی و همچنین ارزیابی‌های علمی اجتماعی و انسانی برای شناسایی مشکلات و راه‌حل‌ها.
  • در پاسخ به این دستور کار، سازمان های دولتی و چندین موسسه خیریه برجسته در مجموع بیش از 11 میلیون دلار (دلار آمریکا) برای تشویق این تحقیق حیاتی متعهد شده اند.
    • ایالات متحده، از طریق USAID، 3.8 میلیون دلار تعیین کرده است این سال مالی برای تقویت ظرفیت‌سازی، تحقیق و استقرار هوش مصنوعی ایمن و مسئولانه در کشورهای شریک USAID در خارج از کشور، از جمله حمایت از تحقیقات در زمینه کاهش خطر محتوای مصنوعی.
    • استرالیا از طریق آژانس ملی علمی خود، سازمان تحقیقات علمی و صنعتی مشترک المنافع (CSIRO)، سالانه 2.2 میلیون دلار (AUD) (1.42 میلیون دلار آمریکا) در تحقیقاتی با هدف شناسایی و کاهش خطرات محتوای مصنوعی سرمایه گذاری می کند.
    • جمهوری کره سالانه 1.8 میلیون دلار (USD) به مدت 4 سال، که مجموعاً 7.2 میلیون دلار (USD) می‌شود، برای تلاش‌های تحقیق و توسعه برای شناسایی، پیشگیری و کاهش خطرات محتوای مصنوعی از طریق برنامه ROK AISI اختصاص خواهد داد.
    • بنیاد جان اس و جیمز ال.om محتوای مصنوعی
    • صندوق ایمنی هوش مصنوعی (AISF)، یک همکاری غیرانتفاعی مستقل بین توسعه دهندگان پیشرو هوش مصنوعی و شرکای بشردوستانه، یک میلیون دلار (USD) در حمایت از دستور کار تحقیقاتی با تمرکز بر پادمان در طراحی، استفاده و ارزیابی کمک خواهد کرد. مدل‌ها و سیستم‌های هوش مصنوعی برای کاهش خطرات امنیتی و ایمنی عمومی از خروجی‌های مدل.
    • 250,000 دلار اضافی (USD) در سال 2025 توسط شبکه امیدیار برای حمایت از دستور کار تحقیقاتی متعهد شده است.
    • در این گردهمایی، شبکه بین‌المللی همچنین در مورد اصول شبکه مشترک برای کاهش خطرات محتوای مصنوعی، از جمله بهترین شیوه‌ها و نوآوری‌ها برای بهبود امنیت، قابلیت اطمینان، حریم خصوصی، شفافیت و دسترسی به هوش مصنوعی مولد بحث خواهد کرد. این ورودی ها به پیشبرد دیدگاه همسو از اعضا کمک می کند، که امیدواریم در نشست آتی اقدام هوش مصنوعی فرانسه به اشتراک بگذاریم.
  • برای حمایت از این کار، AISI ایالات متحده نسخه نهایی اولین گزارش راهنمای محتوای مصنوعی خود را منتشر می کند. NIST AI 100-4: کاهش خطرات ناشی از محتوای مصنوعی، که مجموعه ای از رویکردهای داوطلبانه را برای مقابله با خطرات ناشی از محتوای تولید شده توسط هوش مصنوعی مانند مطالب سوء استفاده جنسی از کودکان، جعل هویت و کلاهبرداری شناسایی می کند.
    • این نسخه نهایی منعکس کننده ورودی و بازخورد مجموعه ای از کارشناسان خارجی و نظرات عمومی است که طی چند ماه گذشته درخواست شده است.

(3) بینش روش‌شناختی در مورد تلاش‌های چندزبانه و بین‌المللی تست هوش مصنوعی از اولین تمرین آزمایش مشترک شبکه بین‌المللی مؤسسه‌های ایمنی هوش مصنوعی.

  • شبکه بین‌المللی مؤسسات ایمنی هوش مصنوعی اولین تمرین آزمایشی مشترک خود را که توسط کارشناسان فنی از AISI ایالات متحده، AISI بریتانیا و مرکز اعتماد دیجیتال سنگاپور رهبری می‌شد، تکمیل کرد.
  • شبکه این تمرین را برای بررسی چالش‌های روش‌شناختی، فرصت‌ها و گام‌های بعدی برای کار مشترکی که شبکه می‌تواند برای پیشبرد تست‌های ایمنی هوش مصنوعی قوی‌تر و قابل تکرار در زبان‌ها، فرهنگ‌ها و زمینه‌ها دنبال کند، انجام داد.
  • این تمرین ملاحظات کلیدی را برای آزمایش بین‌المللی مطرح کرد، مانند تأثیری که تفاوت‌های روش‌شناختی کوچک و تکنیک‌های بهینه‌سازی مدل می‌تواند بر نتایج ارزیابی داشته باشد، و استراتژی‌هایی را برای کاهش بالقوه این چالش‌ها برجسته کرد.
  • این تمرین بر روی Meta's Llama 3.1 405B برای آزمایش در سه موضوع – دانش عمومی آکادمیک، توهمات با دامنه بسته و قابلیت های چند زبانه – انجام شد و به عنوان آزمایشی برای یک تمرین آزمایشی مشترک گسترده تر که منجر به اجلاس AI Action Summit خواهد شد، انجام شد. فوریه امسال در پاریس را آموخته های حاصل از آزمایش آزمایشی فرآیند همچنین زمینه را برای آزمایش های آینده در سراسر مرزهای بین المللی و ارزیابی بهترین شیوه ها فراهم خواهد کرد.

(4) بیانیه مشترک در مورد ارزیابی ریسک سیستم های پیشرفته هوش مصنوعی، از جمله طرحی برای پیشبرد همسویی شبکه بین المللی.

  • ارزیابی خطرات سیستم‌های هوش مصنوعی پیشرفته چالش‌های جدیدی را ارائه می‌کند، و در مأموریت شبکه بین‌المللی مؤسسات ایمنی هوش مصنوعی پرداختن به این چالش‌ها و همراستایی با چارچوبی برای درک خطرات و قابلیت‌های ناشی از این فناوری، مرکزی است.
  • شبکه بین‌المللی موسسات ایمنی هوش مصنوعی با درک این موضوع که علم ارزیابی ریسک هوش مصنوعی به تکامل خود ادامه می‌دهد و هر عضو شبکه در چارچوب منحصر به فرد خود عمل می‌کند، موافقت کرد که یک مبنای علمی مشترک برای ارزیابی ریسکبا تکیه بر شش جنبه کلیدی که توسط شبکه مشخص شده است – یعنی ارزیابی ریسک باید (1) قابل اجرا، (2) شفاف، (3) جامع، (4) چند ذی نفع، (5) تکراری و (6) قابل تکرار باشد.
  • این رویکرد مشترک مبتنی بر تعهدات مندرج در بیانیه بلچلی و بیانیه قصد سئول، و همچنین پیشرفت های حاصل شده از طریق OECD، فرآیند G7 هیروشیما، تعهدات ایمنی مرزی هوش مصنوعی و سایر ابتکارات ایمنی بین المللی مرتبط با هوش مصنوعی است.
  • در این گردهمایی، شبکه بین‌المللی بازخورد و بینش را از اعضا و کارشناسان گردآوری شده در مورد چگونگی عملیاتی کردن یک رویکرد مشترک برای ارزیابی ریسک و ایجاد یک نقشه راه برای پیشبرد همسویی و قابلیت همکاری جهانی درخواست خواهد کرد.

(5) ایجاد یک کارگروه جدید دولت ایالات متحده به رهبری مؤسسه ایمنی هوش مصنوعی ایالات متحده برای همکاری در تحقیق و آزمایش مدل های هوش مصنوعی برای مدیریت قابلیت ها و خطرات امنیت ملی.

  • را آزمایش خطرات هوش مصنوعی برای گروه ویژه امنیت ملی (TRAINS). کارشناسان وزارت بازرگانی، دفاع، انرژی، امنیت داخلی، و همچنین آژانس امنیت ملی (NSA) و مؤسسه ملی بهداشت (NIH) را برای رسیدگی به نگرانی‌های امنیت ملی و تقویت رهبری آمریکا در نوآوری هوش مصنوعی گرد هم می‌آورد.
  • Task Force تحقیقات هماهنگ و آزمایش مدل‌های هوش مصنوعی پیشرفته را در حوزه‌های حیاتی امنیت ملی و امنیت عمومی، مانند امنیت رادیولوژیکی و هسته‌ای، امنیت شیمیایی و بیولوژیکی، امنیت سایبری، زیرساخت‌های حیاتی، قابلیت‌های نظامی متعارف، و موارد دیگر امکان‌پذیر می‌سازد.
  • این تلاش‌ها ضرورت دولت ایالات متحده را برای حفظ رهبری آمریکا در توسعه هوش مصنوعی و جلوگیری از سوء استفاده دشمنان از نوآوری آمریکا برای تضعیف امنیت ملی، افزایش می‌دهد.
  • اطلاعات بیشتر را می توان در اینجا در بیانیه مطبوعاتی.


    برای سوالات مطبوعاتی، لطفا تماس بگیرید usaisi (در) nist.gov

تشکیل شبکه بین المللی مؤسسات ایمنی هوش مصنوعی


Source link

Tags: , , , , , , , , , , , , , , , , , , , , , , ,

Related Posts

فهرست
Translate »