آموزش هوش مصنوعی نسل بعدی openAI توسظ شورای ایمنی

  • 1403/3/13
  • چت بات ها
  • 1399
  • 0
  • 0
image

OpenAI گام های قابل توجهی در پیشرفت فناوری های هوش مصنوعی برداشته است و آخرین دستاورد آن سیستم GPT-4o است که چت بات محبوب ChatGPT را نیرو می دهد. امروز OpenAI از ایجاد یک کمیته ایمنی جدید به نام OpenAI Safety Council خبر داد و فاش کرد که آموزش یک مدل جدید هوش مصنوعی را آغاز کرده است.

چه کسی در شورای ایمنی OpenAI حضور دارد؟

شورای ایمنی OpenAI تازه تاسیس شده با هدف ارائه راهنمایی و نظارت بر تصمیمات حیاتی ایمنی و امنیتی مرتبط با پروژه ها و عملیات شرکت است. هدف اصلی شورا این است که اطمینان حاصل شود که شیوه‌های توسعه هوش مصنوعی OpenAI ایمنی را در اولویت قرار می‌دهند و با اصول اخلاقی همسو می‌شوند. کمیته ایمنی شامل گروه متنوعی از افراد، از جمله مدیران OpenAI، اعضای هیئت مدیره و کارشناسان فنی و سیاستی است.

اعضای برجسته شورای ایمنی OpenAI عبارتند از

- سام آلتمن ، مدیر عامل OpenAI
- برت تیلور، رئیس OpenAI
- آدام دانجلو، مدیرعامل Quora و عضو هیئت مدیره OpenAI
- نیکول سلیگمن، مشاور عمومی سابق سونی و عضو هیئت مدیره OpenAI

در مرحله اولیه، کمیته جدید ایمنی و امنیت بر ارزیابی و تقویت فرآیندهای ایمنی و پادمان های موجود OpenAI تمرکز خواهد کرد. شورای ایمنی OpenAI یک جدول زمانی 90 روزه برای ارائه توصیه هایی به هیئت مدیره در مورد چگونگی ارتقای شیوه های توسعه هوش مصنوعی و سیستم های ایمنی تعیین کرده است. پس از تصویب این توصیه ها، OpenAI قصد دارد آنها را به روشی مطابق با ملاحظات ایمنی و امنیتی منتشر کند.

آموزش مدل جدید هوش مصنوعی

به موازات ایجاد شورای ایمنی OpenAI، OpenAI اعلام کرده است که آموزش مدل مرزی بعدی خود را آغاز کرده است. انتظار می‌رود این جدیدترین مدل هوش مصنوعی از قابلیت‌های سیستم GPT-4 که ​​در حال حاضر زیربنای ChatGPT است، پیشی بگیرد. در حالی که جزئیات در مورد مدل جدید هوش مصنوعی کمیاب است، OpenAI گفته است که این صنعت هم در قابلیت و هم از نظر ایمنی رهبری خواهد کرد.

توسعه این مدل جدید هوش مصنوعی بر سرعت سریع نوآوری در زمینه هوش مصنوعی و پتانسیل هوش عمومی مصنوعی (AGI) تاکید می کند. همانطور که سیستم های هوش مصنوعی پیشرفته تر و قدرتمندتر می شوند، اولویت بندی ایمنی و اطمینان از توسعه مسئولانه این فناوری ها بسیار مهم است.

مناقشات و جدایی های اخیر OpenAI

OpenAI در حال مرور و تمرکز دوباره بر ایمنی خود است، در یک دوره‌ی آشفتگی داخلی و بررسی‌های عمومی. در هفته‌های اخیر، این شرکت با انتقاداتی از درون خود روبرو شده است. محققی به نام ژان لیک استعفا داد و نگرانی‌ها درباره عقب‌نشینی در مسائل ایمنی در توسعه "محصولات برجسته" این شرکت بیان شده است. پس از استعفای لیک، ایلیا سوتسکور، بنیان‌گذار و دانشمند ارشد OpenAI، از موقعیت خود کناره‌گیری کرد.

خروج لیک و سوتسکور سوالاتی درباره اولویت‌های این شرکت و رویکرد آن در قبال ایمنی هوش مصنوعی برانگیخته است. این دو محقق به‌طور مشترک تیم "سوپر همسویی" OpenAI را رهبری می‌کردند که به مواجهه با خطرات بلندمدت هوش مصنوعی متمرکز بود. پس از استعفای آنها، تیم "سوپر الاینمنت" تفکیک شد و نگرانی‌ها درباره تعهد شرکت به ایمنی بیشتر افزایش یافت.

علاوه بر مشکلات داخلی، OpenAI با اتهاماتی درباره جعل هویت در ربات چت ChatGPT مواجه شده است. برخی از کاربران ادعا کرده‌اند که صدای این ربات به شدت به صدای بازیگر اسکارلت جوهانسون شباهت دارد. در حالی که OpenAI این جعل هویت را تکذیب کرده است، این اتهامات باعث شده تا گفتگوی گسترده‌تری درباره پیامدهای اخلاقی تولید محتوای هوش مصنوعی و احتمال سوءاستفاده از آن آغاز شود.

گفتگوی گسترده تر در مورد اخلاق هوش مصنوعی

از آنجایی که صنعت هوش مصنوعی به سرعت در حال پیشرفت است، برای شرکت‌هایی مانند OpenAI بسیار مهم است که در ارتباط و همکاری مداوم با محققان، سیاست‌گذاران، و عموم مردم باشند. این ارتباطات برای اطمینان از آنکه فناوری‌های هوش مصنوعی به طرزی مسئولانه و با استفاده از پادمان‌های قوی توسعه می‌یابند، بسیار حیاتی هستند. توصیه‌های ارائه شده توسط شورای ایمنی OpenAI و تعهد شرکت به شفافیت، به گفتگوهای گسترده‌تر درباره حاکمیت هوش مصنوعی کمک می‌کنند و به شکل‌گیری آینده این فناوری نوین کمک می‌کنند. اما تنها زمان نشان خواهد داد که این تلاش‌ها به چه نتایجی خواهد انجامید.

|

تگ ها