[ سبد خرید شما خالی است ]

نگرانی های ایمنی در مورد هوش مصنوعی Open AI

پایگاه خبری فولاد ایران- اوپن ای آی (Open AI)، پیشرو در مسابقه توسعه هوش مصنوعی به اندازه یک انسان هوشمند است. با این حال، همچنان در مطبوعات و پادکست ها نگرانی های جدی در مورد ایمنی آن بیان می شود. آخرین مورد در واشنگتن پست منتشر شده است، جایی که یک منبع ناشناس ادعا کرد که OpenAI با عجله آزمایش های ایمنی را انجام داده و قبل از اطمینان از ایمنی آن، محصول خود را جشن گرفته است.
به گزارش فولاد ایران، مشکلات ایمنی در OpenAI بزرگ است و به نظر می رسد که همچنان ادامه دارد. کارمندان فعلی و سابق OpenAI اخیراً نامه‌ای سرگشاده را امضا کردند که در آن خواستار اقدامات ایمنی و شفافیت بهتر از این استارت‌آپ شدند. یان لیکه، محقق کلیدی OpenAI، اندکی پس از آن استعفا داد و در پستی ادعا کرد که «فرهنگ ایمنی و فرآیندها به سمت محصولات لوکس به عقب رانده شده است»
این استارت اپ مدعی است که «ایمنی هسته اصلی منشور OpenAI است. OpenAI حتی مدل‌های اختصاصی خود را که باعث ایجاد جرقه‌ ها و شکایت‌های قضایی است، خصوصی نگه می‌دارد.» اینطور که به نظر می رسد ایمنی با وجود اینکه برای فرهنگ و ساختار شرکت بسیار مهم است، از اولویت برخوردار است.
تایا کریستینسون، سخنگوی OpenAI در بیانیه‌ای به The Verge گفت: «ما به سوابق خود در ارائه قوی‌ترین و ایمن‌ترین سیستم‌های هوش مصنوعی افتخار می‌کنیم و به رویکرد علمی خود برای مقابله با ریسک اعتقاد داریم. با توجه به اهمیت این فناوری، بحث های دقیق بسیار مهم است و ما به تعامل با دولت ها، جامعه مدنی و سایر جوامع در سراسر جهان در خدمت ماموریت خود ادامه خواهیم داد.»
به گفته OpenAI و دیگرانی که در مورد فناوری نوظهور مطالعه می کنند، خطرات در مورد ایمنی بسیار زیاد است. در گزارشی که توسط وزارت امور خارجه ایالات متحده در ماه مارس تهیه شد، آمده است: «توسعه هوش مصنوعی مرزی فعلی خطرات فوری و فزاینده ای برای امنیت ملی ایجاد می کند. ظهور هوش مصنوعی پیشرفته و AGI ، هوش عمومی مصنوعی این پتانسیل را دارد که امنیت جهانی را به شیوه‌هایی که یادآور معرفی سلاح‌های هسته‌ای است، بی‌ثبات کند.
در مواجهه با جنجال‌های متوالی، OpenAI با چند اعلامیه به موقع سعی در فرونشاندن ترس‌ها داشته است. این هفته، این شرکت اعلام کرد که با آزمایشگاه ملی لوس آلاموس همکاری می کند تا بررسی کند که چگونه مدل های پیشرفته هوش مصنوعی، مانند GPT-4o، می توانند با خیال راحت در تحقیقات علوم زیستی کمک کنند، و در همان اعلامیه، بارها به سابقه ایمنی خود لوس آلاموس اشاره کرد. یک سخنگوی ناشناس به بلومبرگ گفت که OpenAI یک مقیاس داخلی برای ردیابی پیشرفت مدل‌های زبانی بزرگ خود به سمت هوش عمومی مصنوعی ایجاد کرده است.
به نظر می‌رسد که اعلامیه‌های متمرکز بر ایمنی این هفته از OpenAI در مواجهه با انتقادات فزاینده از شیوه‌های ایمنی آن، پوششی دفاعی باشد. واضح است که OpenAI در جایگاه داغی قرار دارد، اما تلاش‌های روابط عمومی آن به تنهایی برای محافظت از جامعه کافی نیست.
لینا خان، رئیس FTC در ماه نوامبر به بلومبرگ گفت: «ابزارهای هوش مصنوعی می توانند انقلابی باشند.» او گفت: "در حال حاضر، نگرانی هایی وجود دارد که ورودی های حیاتی این ابزارها توسط تعداد نسبتا کمی از شرکت ها کنترل می شود."


منبع: theverge

۱۱ شهریور ۱۴۰۳ ۱۰:۱۲
تعداد بازدید : ۳۰۳
کد خبر : ۷۰,۷۲۶

نظرات بینندگان

تعداد کاراکتر باقیمانده: 500
نظر خود را وارد کنید