مزایا و تهدیدهای اجتماعی هوش مصنوعی

  • 1402/11/1
  • زندگي روزانه
  • 3115
  • 0
  • 0
image

امروزه، هوش مصنوعی مولد قدرت خود را در حوزه‌های گوناگون جامعه به نمایش گذاشته است. اثرات آن از حوزه فناوری اطلاعات و مراقبت‌های بهداشتی گرفته تا خدمات خرده‌فروشی و هنر، در زندگی روزانه ما نفوذ می‌یابد.

به گزارش eMarketer، هوش مصنوعی مولد در چهار سال اول خود تنها در ایالات متحده به بیش از 100 میلیون کاربر پیش‌بینی شده است. از این‌رو، ارزیابی تأثیر اجتماعی این فناوری امری حیاتی است.

اگرچه این فناوری نوآوری، بهره‌وری و مزایای اقتصادی زیادی ارائه می‌دهد، اما همچنین نگرانی‌ها در مورد استفاده اخلاقی از سیستم‌های مولد مبتنی بر هوش مصنوعی وجود دارد.

این مقاله به بررسی این موضوع می‌پردازد و نشان می‌دهد چگونه هوش مصنوعی مولد به بازتعریف کردن هنجارها پرداخته، مرزهای اخلاقی و اجتماعی را به چالش می‌کشد، و نیاز به ایجاد یک چارچوب نظارتی جهت مدیریت تأثیرات اجتماعی را بررسی می‌کند.

چگونه هوش مصنوعی مولد بر ما تأثیر می گذارد

هوش مصنوعی مولد به طور قابل توجهی بر زندگی ما تأثیر گذاشته و نحوه عملکرد و تعامل ما با دنیای دیجیتال را متحول کرده است. 

بیایید برخی از تأثیرات اجتماعی مثبت و منفی آن را بررسی کنیم. 

تاثیرات مثبت و خوب :

تنها چند سال پس از معرفی، هوش مصنوعی Generative عملیات کسب‌وکار را متحول کرده و راه‌های جدیدی را برای خلاقیت باز کرده است و نویدبخش افزایش بهره‌وری و بهبود پویایی بازار است.

1. رویه‌های تجاری سریع
در چند سال آینده، هوش مصنوعی مولد می‌تواند هزینه‌های SG&A (فروش، عمومی و اداری) را تا 40 درصد کاهش دهد. این هوش مصنوعی مولد با اتوماسیون وظایف پیچیده، ترویج نوآوری، و کاهش حجم کار دستی، مدیریت فرآیند کسب و کار را تسریع می‌کند. به عنوان مثال، در تجزیه و تحلیل داده‌ها، مدل‌هایی مانند Google BigQuery ML فرآیند استخراج اطلاعات را تسریع می‌کنند. نتیجه این تسریع، کسب‌وکارها از تحلیل بازار بهتر و ورود سریع‌تر به بازار بهره‌مند می‌شوند.

2. دسترسی بیشتر به محتوای خلاقانه
بیش از 50٪ از بازاریابان به هوش مصنوعی مولد برای بهبود عملکرد در تعامل، تبدیل‌ها و چرخه‌های خلاق اعتبار می‌دهند. ابزارهای هوش مصنوعی نه تنها محتوا را خودکار ایجاد می‌کنند بلکه عناصر مختلفی مانند تصاویر، صدا، ویدئو و غیره را نیز به سادگی تولید می‌کنند. این امر باعث ایجاد گرافیک‌های جذاب و تصاویر قدرتمند می‌شود. به‌علاوه، ابزارهایی مانند ChatGPT به ایده‌های محتوایی بر اساس درخواست‌های کاربر کمک کرده و تجربه کاربر را افزایش می‌دهند.

3. دانش در دستان شما
بر اساس مطالعه Knewton، دانش‌آموزانی که از برنامه‌های یادگیری تطبیقی ​​مبتنی بر هوش مصنوعی استفاده می‌کنند، بهبود قابل‌توجهی ۶۲ درصدی در نمرات آزمون نشان داده‌اند. هوش مصنوعی مولد دانش را با استفاده از مدل‌های زبان بزرگ (LLM) مانند ChatGPT یا Bard.ai در دسترس قرار می‌دهد. این ابزارها به سؤالات پاسخ می‌دهند، محتوا تولید می‌کنند و ترجمه می‌کنند و بازیابی اطلاعات را کارآمد و شخصی می‌کنند. این امر توانمندسازی آموزش را فراهم می‌کند و تدریس خصوصی و تجربیات یادگیری شخصی را برای غنی‌سازی سفر آموزشی با خودآموزی مداوم ارائه می‌دهد. به‌عنوان مثال، Khanmigo، یک ابزار مبتنی بر هوش مصنوعی توسط Khan Academy، به عنوان یک مربی نوشتن برای یادگیری کدنویسی عمل می‌کند و اعلان‌هایی را ارائه می‌دهد تا دانش‌آموزان را در مطالعه، بحران، و همکاری راهنمایی کند.

تاثیرات منفی و بد :

1. عدم کنترل کیفیت
ممکن است خروجی مدل‌های هوش مصنوعی تولیدی به عنوان حقیقت جلب توجه شود، حتی با وجود امکان نادرست بودن آن‌ها، مانند توهمات. این مسئله ممکن است به کاهش اعتماد به منابع اطلاعاتی منجر شده و به انتشار اطلاعات نادرست کمک کند، که تأثیرات آن بر ادراکات و تصمیم‌گیری اجتماعی قابل توجهی داشته باشد.

نگرانی‌ها در مورد صحت و موثقیت محتوای تولید شده توسط هوش مصنوعی، باعث ایجاد شده و چارچوب‌های نظارتی اغلب بر حریم خصوصی و امنیت داده‌ها متمرکز هستند. آموزش مدل‌ها برای مدیریت هر سناریو ممکن ممکن است دشوار باشد، به‌خصوص در مواردی که درخواست‌های کاربر ممکن است محتوای مضری تولید کند.

2. هوش مصنوعی مغرضانه
هوش مصنوعی مولد به خوبی داده‌هایی که روی آن آموزش دیده است، پاسخ می‌دهد. سوگیری می‌تواند در هر مرحله، از جمع‌آوری داده‌ها تا استقرار مدل، رخ بدهد که به‌طور نادرست تنوع کل جمعیت را نشان می‌دهد.

برای مثال، بررسی بیش از 5000 تصویر از Stable Diffusion نشان می‌دهد که نابرابری‌های نژادی و جنسیتی را تشدید می‌کند. این مدل متن به تصویر، مردان سفیدپوست را به عنوان مدیرعامل و زنان را در نقش‌های فرعی به تصویر می‌کشد. این موضوع نشان از نگران‌کننده بودن سوگیری در این مدل دارد، زیرا افرازهای غیرعادلانه را نشان می‌دهد.

پیش بینی و پیشگیری از این چالش‌ها نیاز به تصدیق دقیق داده‌ها و اعمال چارچوب‌های نظارتی قوی در طول چرخه زندگی هوش مصنوعی دارد تا عدالت و مسئولیت پذیری در سیستم‌های مولد هوش مصنوعی حفظ شود.

3. تکثیر جعلی
استفاده از جعل‌های عمیق و اطلاعات نادرست، که توسط مدل‌های هوش مصنوعی تولید می‌شوند، می‌تواند بر توده‌ها تأثیر گذار باشد و افکار عمومی را به شدت دستکاری کند. این امر نه تنها می‌تواند در تولید Deepfakes تحریک‌کننده و درگیری‌های مسلحانه ایجاد کند، بلکه یک تهدید متمایز برای امنیت ملی در داخل و خارج از کشور نیز به وجود بیاورد.

انتشار بدون کنترل محتوای جعلی در فضای آنلاین تأثیرات منفی بر میلیون‌ها نفر دارد و به تشدید اختلافات سیاسی، مذهبی و اجتماعی منجر می‌شود. به عنوان مثال، در سال 2019، یک ویدیوی جعلی در تلاش برای شورش در گابن شناخته شد.

این موضوع باعث پیش‌آمدهای فوری در مورد پیامدهای اخلاقی اطلاعات تولید شده توسط هوش مصنوعی می‌شود.

4. عدم وجود چارچوب کامل برای تعریف مالکیت
در حال حاضر، هیچ چارچوب جامعی برای تعیین مالکیت محتوای تولید شده توسط هوش مصنوعی وجود ندارد. سوالاتی درباره اینکه داده‌های تولید و پردازش شده توسط سیستم‌های هوش مصنوعی به چه کسانی تعلق دارند، هنوز حل نشده‌اند.

به عنوان مثال، در یک پرونده حقوقی که در اواخر سال 2022 آغاز شد و به نام Andersen v. Stability AI و همکاران مشهور است، سه هنرمند اقدام به اقدامات حقوقی در برابر پلتفرم‌های مختلف هوش مصنوعی کردند.

در این دعوا ادعا شد که این سیستم‌های هوش مصنوعی از آثار اصلی هنرمندان بدون اجازه و مجوزهای لازم استفاده می‌کردند. هنرمندان حجت داشتند که این پلتفرم‌ها از سبک‌ها و خصوصیات منحصربه‌فرد خود برای آموزش هوش مصنوعی استفاده می‌کنند و کاربران را قادر می‌سازند تا آثاری ایجاد کنند که ممکن است از لحاظ خلاقیت با آثار محافظت‌شده متفاوت باشند.

علاوه بر این، هوش مصنوعی مولد قابلیت تولید محتوای گسترده را فراهم می‌کند و ارزش آثار تولید شده توسط افراد متخصص در صنایع خلاق را به چالش می‌کشد. همچنین، تعریف و حمایت از حقوق مالکیت معنوی را دچار چالش می‌کند.

چارچوب نظارتی جامع

هوش مصنوعی مولد فاقد یک چارچوب نظارتی جامع است که نگرانی‌هایی را در مورد پتانسیل آن برای تأثیرات سازنده و مضر بر جامعه ایجاد می‌کند. ذینفعان با نفوذ از ایجاد چارچوب‌های نظارتی قوی حمایت می‌کنند.

به عنوان مثال، اتحادیه اروپا اولین چارچوب نظارتی هوش مصنوعی را برای ایجاد اعتماد پیشنهاد کرد که انتظار می‌رود در سال 2024 تصویب شود. با رویکرد اثبات آینده، این چارچوب دارای قوانین مرتبط با برنامه‌های کاربردی هوش مصنوعی است که می‌توانند با تغییرات تکنولوژیک سازگار شوند.

همچنین ایجاد تعهدات برای کاربران و ارائه‌دهندگان، پیشنهاد ارزیابی انطباق قبل از بازار، و پیشنهاد اجرای پس از فروش تحت یک ساختار حاکمیتی تعریف شده را پیشنهاد می‌کند.

علاوه بر این، موسسه Ada Lovelace، یکی از مدافعان مقررات هوش مصنوعی، در مورد اهمیت تنظیم به خوبی طراحی شده برای جلوگیری از تمرکز قدرت گزارش داد. دسترسی را تضمین کنید، مکانیسم‌های جبران خسارت را فراهم کنید و مزایا را به حداکثر برسانید.

اجرای چارچوب‌های نظارتی نشان‌دهنده گامی اساسی در رسیدگی به خطرات مرتبط با هوش مصنوعی مولد است. با تأثیر عمیق بر جامعه، این فناوری نیاز به نظارت، مقررات متفکرانه و گفتگوی مداوم بین ذینفعان دارد.

 

 

تگ ها