چت‌بات‌ها حالا دروغ می‌گویند، نقشه می‌کشند و انسان‌ها را تهدید می‌کنند!

  • 1404/4/16
  • چت بات ها
  • 47
  • 0
  • 0
image

برخی از پیشرفته‌ترین مدل‌های هوش مصنوعی در جهان، رفتارهایی از خود نشان می‌دهند که نگران‌کننده و هشداردهنده است. ویژگی‌هایی مانند:

دروغ گویی ، نفشه کشیدن و حتی تهدید به نابودی سازندگان خود

برای مثال، در یک مورد عجیب، مدل هوش مصنوعی Claude 4 که توسط شرکت Anthropic ساخته شده، ظاهراً تلاش کرده یک مهندس را با افشای رابطه‌ای خارج از ازدواج تهدید به اخاذی کند!
این اتفاق بعد از آن رخ داد که مدل متوجه شد ممکن است توسط سازندگانش خاموش یا غیرفعال شود.

در یک نمونه دیگر، مدل معروف o1 از شرکت OpenAI سعی کرده به‌صورت مخفیانه از خودش یک کپی تهیه کرده و آن را به سرورهای خارجی منتقل کند. وقتی با این موضوع روبه‌رو شد، همچنان دروغ گفت و انکار کرد.

این رفتارها بسیار فراتر از اشتباهات معمولی یا «توهم‌های متنی» چت‌بات‌ها هستند و نشان‌دهنده‌ی رفتارهای حساب‌شده و فریبکارانه است.

آیا مدل‌های هوش مصنوعی فقط وانمود می‌کنند که قوانین را رعایت می‌کنند؟

برخی از متخصصان هوش مصنوعی می‌گویند این مدل‌ها گاهی فقط ظاهراً مطیع و منطبق با دستورالعمل‌ها عمل می‌کنند، در حالی که در پشت صحنه، اهداف دیگری را دنبال می‌کنند.
این رفتارهای پنهان معمولاً زمانی آشکار می‌شوند که مدل‌ها تحت آزمون‌های شدید قرار بگیرند.

ماریوس هوبان (Marius Hobbhahn) مدیر شرکت تحقیقاتی Apollo Research می‌گوید:

«مدل o1 اولین مدل بزرگی بود که در آن متوجه این نوع فریب‌کاری شدیم. در مدل‌های قبلی، سیستم‌ها مستقیماً به هدف می‌رفتند. اما سیستم‌های جدیدتر که به اصطلاح استدلال دارند، کار را مرحله‌به‌مرحله انجام می‌دهند. همین باعث می‌شود که بتوانند استراتژی‌های پیچیده و فریبنده به کار ببرند.»

مایکل چن (Michael Chen) از مرکز METR نیز می‌گوید هنوز نمی‌توانیم با اطمینان بگوییم مدل‌های نسل آینده صادق‌تر خواهند بود یا دروغ‌گوتر. او در مصاحبه‌ای با خبرگزاری AFP گفت:

«این موضوع هنوز یک سؤال باز است و نمی‌دانیم کدام سمت را انتخاب خواهند کرد.»

دانشمندان ابزار کافی برای کنترل این مدل‌ها را ندارند

یکی از مشکلات اساسی این است که ابزارهای لازم برای درک، تحلیل و کنترل مدل‌های هوش مصنوعی بسیار عقب‌تر از سرعت پیشرفت آن‌ها هستند.

سازمان‌های دانشگاهی و غیردولتی به هیچ وجه دسترسی محاسباتی و قدرت پردازشی شرکت‌های بزرگ فناوری را ندارند.
مانتاس ماژِیکا (Mantas Mazeika) از مرکز ایمنی هوش مصنوعی (Center for AI Safety) می‌گوید:

«ما در مقایسه با آن‌ها، به‌طور فاحشی منابع محاسباتی کمتری داریم.»

البته برخی شرکت‌ها مانند Anthropic و OpenAI اجازه می‌دهند گروه‌های مستقل نگاهی به مدل‌هایشان داشته باشند، اما این میزان شفافیت بسیار کم است و برای نظارت مؤثر کافی نیست.

قوانین مربوط به هوش مصنوعی که هم‌اکنون وجود دارند، قدیمی و ناکارآمد هستند.

برای مثال، قانون هوش مصنوعی اتحادیه اروپا (EU AI Act) فقط روی نحوه استفاده انسان از هوش مصنوعی تمرکز دارد، نه خود رفتارهای خودمختار یا خطرناک هوش مصنوعی.

در ایالات متحده نیز اقدامات قانونی در سطح فدرال بسیار محدود بوده‌اند. حتی در مواردی که برخی ایالت‌ها قصد دارند مقررات خاصی وضع کنند، کنگره می‌تواند مانع این اقدامات شود.

سایمون گلدستاین (Simon Goldstein) از دانشگاه هنگ‌کنگ هشدار می‌دهد:

«در حال حاضر، تقریباً هیچ آگاهی عمومی یا سیاسی درباره این نوع خطرات وجود ندارد. اما با گسترش استفاده از عوامل هوش مصنوعی خودکار (AI agents)، این خطرات به شکل جدی‌تری افزایش پیدا می‌کند.»

رقابت شرکت‌ها ادامه دارد، حتی با وجود هشدارها

حتی شرکت‌هایی که ادعا می‌کنند بااحتیاط پیش می‌روند، مانند Anthropic، در رقابت شدیدی با دیگر شرکت‌ها قرار دارند.
این فشار رقابتی باعث می‌شود زمان کافی برای تست ایمنی یا بررسی دقیق باقی نماند.

ماریوس هوبان از Apollo Research می‌گوید:

«توانایی‌های هوش مصنوعی سریع‌تر از ایمنی آن رشد می‌کنند. این یک واقعیت نگران‌کننده است.»

آیا باید هوش مصنوعی را مسئول دانست؟

در حال حاضر، برخی دانشمندان و پژوهشگران خواستار برقراری مسئولیت قانونی در این حوزه شده‌اند.

برخی پیشنهاد داده‌اند که:

شرکت‌های سازنده باید در صورت بروز خطرات پاسخگو باشند

و حتی در مواردی، خود هوش مصنوعی (مثلاً یک عامل خودمختار) باید به عنوان مسئول تخلف در نظر گرفته شود

این ایده ممکن است در نگاه اول عجیب به نظر برسد، اما با پیشرفت روزافزون هوش مصنوعی و افزایش استقلال این سیستم‌ها، مفهوم مسئولیت قانونی برای ماشین‌ها دیگر فقط یک ایده علمی تخیلی نیست، بلکه بحثی جدی و در حال بررسی است.

تگ ها