امروزه، هوش مصنوعی مولد قدرت خود را در حوزههای گوناگون جامعه به نمایش گذاشته است. اثرات آن از حوزه فناوری اطلاعات و مراقبتهای بهداشتی گرفته تا خدمات خردهفروشی و هنر، در زندگی روزانه ما نفوذ مییابد.
به گزارش eMarketer، هوش مصنوعی مولد در چهار سال اول خود تنها در ایالات متحده به بیش از 100 میلیون کاربر پیشبینی شده است. از اینرو، ارزیابی تأثیر اجتماعی این فناوری امری حیاتی است.
اگرچه این فناوری نوآوری، بهرهوری و مزایای اقتصادی زیادی ارائه میدهد، اما همچنین نگرانیها در مورد استفاده اخلاقی از سیستمهای مولد مبتنی بر هوش مصنوعی وجود دارد.
این مقاله به بررسی این موضوع میپردازد و نشان میدهد چگونه هوش مصنوعی مولد به بازتعریف کردن هنجارها پرداخته، مرزهای اخلاقی و اجتماعی را به چالش میکشد، و نیاز به ایجاد یک چارچوب نظارتی جهت مدیریت تأثیرات اجتماعی را بررسی میکند.
چگونه هوش مصنوعی مولد بر ما تأثیر می گذارد
هوش مصنوعی مولد به طور قابل توجهی بر زندگی ما تأثیر گذاشته و نحوه عملکرد و تعامل ما با دنیای دیجیتال را متحول کرده است.
بیایید برخی از تأثیرات اجتماعی مثبت و منفی آن را بررسی کنیم.
تاثیرات مثبت و خوب :
تنها چند سال پس از معرفی، هوش مصنوعی Generative عملیات کسبوکار را متحول کرده و راههای جدیدی را برای خلاقیت باز کرده است و نویدبخش افزایش بهرهوری و بهبود پویایی بازار است.
1. رویههای تجاری سریع
در چند سال آینده، هوش مصنوعی مولد میتواند هزینههای SG&A (فروش، عمومی و اداری) را تا 40 درصد کاهش دهد. این هوش مصنوعی مولد با اتوماسیون وظایف پیچیده، ترویج نوآوری، و کاهش حجم کار دستی، مدیریت فرآیند کسب و کار را تسریع میکند. به عنوان مثال، در تجزیه و تحلیل دادهها، مدلهایی مانند Google BigQuery ML فرآیند استخراج اطلاعات را تسریع میکنند. نتیجه این تسریع، کسبوکارها از تحلیل بازار بهتر و ورود سریعتر به بازار بهرهمند میشوند.
2. دسترسی بیشتر به محتوای خلاقانه
بیش از 50٪ از بازاریابان به هوش مصنوعی مولد برای بهبود عملکرد در تعامل، تبدیلها و چرخههای خلاق اعتبار میدهند. ابزارهای هوش مصنوعی نه تنها محتوا را خودکار ایجاد میکنند بلکه عناصر مختلفی مانند تصاویر، صدا، ویدئو و غیره را نیز به سادگی تولید میکنند. این امر باعث ایجاد گرافیکهای جذاب و تصاویر قدرتمند میشود. بهعلاوه، ابزارهایی مانند ChatGPT به ایدههای محتوایی بر اساس درخواستهای کاربر کمک کرده و تجربه کاربر را افزایش میدهند.
3. دانش در دستان شما
بر اساس مطالعه Knewton، دانشآموزانی که از برنامههای یادگیری تطبیقی مبتنی بر هوش مصنوعی استفاده میکنند، بهبود قابلتوجهی ۶۲ درصدی در نمرات آزمون نشان دادهاند. هوش مصنوعی مولد دانش را با استفاده از مدلهای زبان بزرگ (LLM) مانند ChatGPT یا Bard.ai در دسترس قرار میدهد. این ابزارها به سؤالات پاسخ میدهند، محتوا تولید میکنند و ترجمه میکنند و بازیابی اطلاعات را کارآمد و شخصی میکنند. این امر توانمندسازی آموزش را فراهم میکند و تدریس خصوصی و تجربیات یادگیری شخصی را برای غنیسازی سفر آموزشی با خودآموزی مداوم ارائه میدهد. بهعنوان مثال، Khanmigo، یک ابزار مبتنی بر هوش مصنوعی توسط Khan Academy، به عنوان یک مربی نوشتن برای یادگیری کدنویسی عمل میکند و اعلانهایی را ارائه میدهد تا دانشآموزان را در مطالعه، بحران، و همکاری راهنمایی کند.
تاثیرات منفی و بد :
1. عدم کنترل کیفیت
ممکن است خروجی مدلهای هوش مصنوعی تولیدی به عنوان حقیقت جلب توجه شود، حتی با وجود امکان نادرست بودن آنها، مانند توهمات. این مسئله ممکن است به کاهش اعتماد به منابع اطلاعاتی منجر شده و به انتشار اطلاعات نادرست کمک کند، که تأثیرات آن بر ادراکات و تصمیمگیری اجتماعی قابل توجهی داشته باشد.
نگرانیها در مورد صحت و موثقیت محتوای تولید شده توسط هوش مصنوعی، باعث ایجاد شده و چارچوبهای نظارتی اغلب بر حریم خصوصی و امنیت دادهها متمرکز هستند. آموزش مدلها برای مدیریت هر سناریو ممکن ممکن است دشوار باشد، بهخصوص در مواردی که درخواستهای کاربر ممکن است محتوای مضری تولید کند.
2. هوش مصنوعی مغرضانه
هوش مصنوعی مولد به خوبی دادههایی که روی آن آموزش دیده است، پاسخ میدهد. سوگیری میتواند در هر مرحله، از جمعآوری دادهها تا استقرار مدل، رخ بدهد که بهطور نادرست تنوع کل جمعیت را نشان میدهد.
برای مثال، بررسی بیش از 5000 تصویر از Stable Diffusion نشان میدهد که نابرابریهای نژادی و جنسیتی را تشدید میکند. این مدل متن به تصویر، مردان سفیدپوست را به عنوان مدیرعامل و زنان را در نقشهای فرعی به تصویر میکشد. این موضوع نشان از نگرانکننده بودن سوگیری در این مدل دارد، زیرا افرازهای غیرعادلانه را نشان میدهد.
پیش بینی و پیشگیری از این چالشها نیاز به تصدیق دقیق دادهها و اعمال چارچوبهای نظارتی قوی در طول چرخه زندگی هوش مصنوعی دارد تا عدالت و مسئولیت پذیری در سیستمهای مولد هوش مصنوعی حفظ شود.

3. تکثیر جعلی
استفاده از جعلهای عمیق و اطلاعات نادرست، که توسط مدلهای هوش مصنوعی تولید میشوند، میتواند بر تودهها تأثیر گذار باشد و افکار عمومی را به شدت دستکاری کند. این امر نه تنها میتواند در تولید Deepfakes تحریککننده و درگیریهای مسلحانه ایجاد کند، بلکه یک تهدید متمایز برای امنیت ملی در داخل و خارج از کشور نیز به وجود بیاورد.
انتشار بدون کنترل محتوای جعلی در فضای آنلاین تأثیرات منفی بر میلیونها نفر دارد و به تشدید اختلافات سیاسی، مذهبی و اجتماعی منجر میشود. به عنوان مثال، در سال 2019، یک ویدیوی جعلی در تلاش برای شورش در گابن شناخته شد.
این موضوع باعث پیشآمدهای فوری در مورد پیامدهای اخلاقی اطلاعات تولید شده توسط هوش مصنوعی میشود.
4. عدم وجود چارچوب کامل برای تعریف مالکیت
در حال حاضر، هیچ چارچوب جامعی برای تعیین مالکیت محتوای تولید شده توسط هوش مصنوعی وجود ندارد. سوالاتی درباره اینکه دادههای تولید و پردازش شده توسط سیستمهای هوش مصنوعی به چه کسانی تعلق دارند، هنوز حل نشدهاند.
به عنوان مثال، در یک پرونده حقوقی که در اواخر سال 2022 آغاز شد و به نام Andersen v. Stability AI و همکاران مشهور است، سه هنرمند اقدام به اقدامات حقوقی در برابر پلتفرمهای مختلف هوش مصنوعی کردند.
در این دعوا ادعا شد که این سیستمهای هوش مصنوعی از آثار اصلی هنرمندان بدون اجازه و مجوزهای لازم استفاده میکردند. هنرمندان حجت داشتند که این پلتفرمها از سبکها و خصوصیات منحصربهفرد خود برای آموزش هوش مصنوعی استفاده میکنند و کاربران را قادر میسازند تا آثاری ایجاد کنند که ممکن است از لحاظ خلاقیت با آثار محافظتشده متفاوت باشند.
علاوه بر این، هوش مصنوعی مولد قابلیت تولید محتوای گسترده را فراهم میکند و ارزش آثار تولید شده توسط افراد متخصص در صنایع خلاق را به چالش میکشد. همچنین، تعریف و حمایت از حقوق مالکیت معنوی را دچار چالش میکند.
چارچوب نظارتی جامع
هوش مصنوعی مولد فاقد یک چارچوب نظارتی جامع است که نگرانیهایی را در مورد پتانسیل آن برای تأثیرات سازنده و مضر بر جامعه ایجاد میکند. ذینفعان با نفوذ از ایجاد چارچوبهای نظارتی قوی حمایت میکنند.
به عنوان مثال، اتحادیه اروپا اولین چارچوب نظارتی هوش مصنوعی را برای ایجاد اعتماد پیشنهاد کرد که انتظار میرود در سال 2024 تصویب شود. با رویکرد اثبات آینده، این چارچوب دارای قوانین مرتبط با برنامههای کاربردی هوش مصنوعی است که میتوانند با تغییرات تکنولوژیک سازگار شوند.
همچنین ایجاد تعهدات برای کاربران و ارائهدهندگان، پیشنهاد ارزیابی انطباق قبل از بازار، و پیشنهاد اجرای پس از فروش تحت یک ساختار حاکمیتی تعریف شده را پیشنهاد میکند.
علاوه بر این، موسسه Ada Lovelace، یکی از مدافعان مقررات هوش مصنوعی، در مورد اهمیت تنظیم به خوبی طراحی شده برای جلوگیری از تمرکز قدرت گزارش داد. دسترسی را تضمین کنید، مکانیسمهای جبران خسارت را فراهم کنید و مزایا را به حداکثر برسانید.
اجرای چارچوبهای نظارتی نشاندهنده گامی اساسی در رسیدگی به خطرات مرتبط با هوش مصنوعی مولد است. با تأثیر عمیق بر جامعه، این فناوری نیاز به نظارت، مقررات متفکرانه و گفتگوی مداوم بین ذینفعان دارد.