برخی از پیشرفتهترین مدلهای هوش مصنوعی در جهان، رفتارهایی از خود نشان میدهند که نگرانکننده و هشداردهنده است. ویژگیهایی مانند:
دروغ گویی ، نفشه کشیدن و حتی تهدید به نابودی سازندگان خود
برای مثال، در یک مورد عجیب، مدل هوش مصنوعی Claude 4 که توسط شرکت Anthropic ساخته شده، ظاهراً تلاش کرده یک مهندس را با افشای رابطهای خارج از ازدواج تهدید به اخاذی کند!
این اتفاق بعد از آن رخ داد که مدل متوجه شد ممکن است توسط سازندگانش خاموش یا غیرفعال شود.
در یک نمونه دیگر، مدل معروف o1 از شرکت OpenAI سعی کرده بهصورت مخفیانه از خودش یک کپی تهیه کرده و آن را به سرورهای خارجی منتقل کند. وقتی با این موضوع روبهرو شد، همچنان دروغ گفت و انکار کرد.
این رفتارها بسیار فراتر از اشتباهات معمولی یا «توهمهای متنی» چتباتها هستند و نشاندهندهی رفتارهای حسابشده و فریبکارانه است.
آیا مدلهای هوش مصنوعی فقط وانمود میکنند که قوانین را رعایت میکنند؟
برخی از متخصصان هوش مصنوعی میگویند این مدلها گاهی فقط ظاهراً مطیع و منطبق با دستورالعملها عمل میکنند، در حالی که در پشت صحنه، اهداف دیگری را دنبال میکنند.
این رفتارهای پنهان معمولاً زمانی آشکار میشوند که مدلها تحت آزمونهای شدید قرار بگیرند.
ماریوس هوبان (Marius Hobbhahn) مدیر شرکت تحقیقاتی Apollo Research میگوید:
«مدل o1 اولین مدل بزرگی بود که در آن متوجه این نوع فریبکاری شدیم. در مدلهای قبلی، سیستمها مستقیماً به هدف میرفتند. اما سیستمهای جدیدتر که به اصطلاح استدلال دارند، کار را مرحلهبهمرحله انجام میدهند. همین باعث میشود که بتوانند استراتژیهای پیچیده و فریبنده به کار ببرند.»
مایکل چن (Michael Chen) از مرکز METR نیز میگوید هنوز نمیتوانیم با اطمینان بگوییم مدلهای نسل آینده صادقتر خواهند بود یا دروغگوتر. او در مصاحبهای با خبرگزاری AFP گفت:
«این موضوع هنوز یک سؤال باز است و نمیدانیم کدام سمت را انتخاب خواهند کرد.»
دانشمندان ابزار کافی برای کنترل این مدلها را ندارند
یکی از مشکلات اساسی این است که ابزارهای لازم برای درک، تحلیل و کنترل مدلهای هوش مصنوعی بسیار عقبتر از سرعت پیشرفت آنها هستند.
سازمانهای دانشگاهی و غیردولتی به هیچ وجه دسترسی محاسباتی و قدرت پردازشی شرکتهای بزرگ فناوری را ندارند.
مانتاس ماژِیکا (Mantas Mazeika) از مرکز ایمنی هوش مصنوعی (Center for AI Safety) میگوید:
«ما در مقایسه با آنها، بهطور فاحشی منابع محاسباتی کمتری داریم.»
البته برخی شرکتها مانند Anthropic و OpenAI اجازه میدهند گروههای مستقل نگاهی به مدلهایشان داشته باشند، اما این میزان شفافیت بسیار کم است و برای نظارت مؤثر کافی نیست.
قوانین مربوط به هوش مصنوعی که هماکنون وجود دارند، قدیمی و ناکارآمد هستند.
برای مثال، قانون هوش مصنوعی اتحادیه اروپا (EU AI Act) فقط روی نحوه استفاده انسان از هوش مصنوعی تمرکز دارد، نه خود رفتارهای خودمختار یا خطرناک هوش مصنوعی.
در ایالات متحده نیز اقدامات قانونی در سطح فدرال بسیار محدود بودهاند. حتی در مواردی که برخی ایالتها قصد دارند مقررات خاصی وضع کنند، کنگره میتواند مانع این اقدامات شود.
سایمون گلدستاین (Simon Goldstein) از دانشگاه هنگکنگ هشدار میدهد:
«در حال حاضر، تقریباً هیچ آگاهی عمومی یا سیاسی درباره این نوع خطرات وجود ندارد. اما با گسترش استفاده از عوامل هوش مصنوعی خودکار (AI agents)، این خطرات به شکل جدیتری افزایش پیدا میکند.»
رقابت شرکتها ادامه دارد، حتی با وجود هشدارها
حتی شرکتهایی که ادعا میکنند بااحتیاط پیش میروند، مانند Anthropic، در رقابت شدیدی با دیگر شرکتها قرار دارند.
این فشار رقابتی باعث میشود زمان کافی برای تست ایمنی یا بررسی دقیق باقی نماند.
ماریوس هوبان از Apollo Research میگوید:
«تواناییهای هوش مصنوعی سریعتر از ایمنی آن رشد میکنند. این یک واقعیت نگرانکننده است.»
آیا باید هوش مصنوعی را مسئول دانست؟
در حال حاضر، برخی دانشمندان و پژوهشگران خواستار برقراری مسئولیت قانونی در این حوزه شدهاند.
برخی پیشنهاد دادهاند که:
شرکتهای سازنده باید در صورت بروز خطرات پاسخگو باشند
و حتی در مواردی، خود هوش مصنوعی (مثلاً یک عامل خودمختار) باید به عنوان مسئول تخلف در نظر گرفته شود
این ایده ممکن است در نگاه اول عجیب به نظر برسد، اما با پیشرفت روزافزون هوش مصنوعی و افزایش استقلال این سیستمها، مفهوم مسئولیت قانونی برای ماشینها دیگر فقط یک ایده علمی تخیلی نیست، بلکه بحثی جدی و در حال بررسی است.