وجود آسیب پذیری های پنهان در هوش مصنوعی

  • 1402/10/2
  • تحقيق و پژوهش
  • 3309
  • 0
  • 0
image

در دوران فعلی که هوش مصنوعی به سرعت در حال تحول است، تغییرات بسیاری در زمینه‌های مختلف رخ می‌دهد. این تغییرات شامل انقلابی در حوزه وسایل نقلیه خودران که نحوه حمل و نقل را تغییر می‌دهند و همچنین استفاده پیچیده از هوش مصنوعی در تفسیر تصاویر پزشکی می‌شود. پیشرفت‌های به‌دست‌آمده در فناوری هوش مصنوعی مشخصه یک رنسانس دیجیتال است و امکانات بسیاری برای آینده به وجود می‌آید.

اما مطالعات اخیر نشان می‌دهد که یک جنبه نگران‌کننده ممکن است که معمولاً نادیده گرفته می‌شود: افزایش آسیب‌پذیری سیستم‌های هوش مصنوعی در برابر حملات هدفمند دشمن. این موضوع نشان می‌دهد که قوت برنامه‌های هوش مصنوعی در حوزه‌های حیاتی به چالش کشیده می‌شود و نیاز به درک عمیق‌تر از این آسیب‌پذیری‌ها برجسته می‌شود.

مفهوم Adversarial Attacks

حملات خصمانه در حوزه هوش مصنوعی به نوعی تهدید سایبری اشاره دارد که در آن، مهاجمان با عمدتاً دستکاری داده‌های ورودی یک سیستم هوش مصنوعی سعی در گمراه کردن آن دارند تا به تصمیمات یا دسته‌بندی‌های نادرست منجر شوند. این نوع حملات از نقاط ضعف ذاتی در پردازش و تفسیر داده‌ها توسط الگوریتم‌های هوش مصنوعی بهره می‌برند.

به عنوان مثال، فرض کنید یک وسیله نقلیه خودران داریم که برای تشخیص علائم راهنمایی و رانندگی به هوش مصنوعی وابسته است. در یک حمله خصمانه، می‌توانند به سادگی یک برچسب جعلی را بر روی یک علامت توقف قرار دهند، که باعث می‌شود هوش مصنوعی به‌طور اشتباه آن را تفسیر کرده و به عواقب خطرناکی منجر شود. به همین ترتیب، در زمینه پزشکی، یک هکر ممکن است داده‌های وارد شده به یک سیستم هوش مصنوعی که تصاویر اشعه ایکس را تجزیه و تحلیل می‌کند، را دستکاری کند و منجر به تشخیص‌های نادرست گردد. این مثال‌ها نشان‌دهنده ماهیت حیاتی این آسیب‌پذیری‌ها هستند، به‌ویژه در برنامه‌هایی که ایمنی و جان انسان‌ها در معرض خطر است.

این تحقیق توسط تیانفو وو، یک دانشیار در رشته مهندسی برق و کامپیوتر در دانشگاه ایالتی کارولینای شمالی، اجرا شده است. او به بررسی گستردگی آسیب‌پذیری‌های متخاصم پرداخته و نشان داده است که این آسیب‌پذیری‌ها بسیار رایج‌تر از آنچه پیشتر پنداشته شده است. این افشاگری به ویژه در زمینه تلفیق روزافزون هوش مصنوعی در فناوری‌های حیاتی و روزمره به نگرانی تبدیل می‌شود.

وو اهمیت این وضعیت را تأکید می‌کند و می‌گوید: «حمله‌کنندگان می‌توانند از این آسیب‌پذیری‌ها بهره‌مند شوند تا هوش مصنوعی را وادار به تفسیر داده‌ها به هر شکلی که بخواهند کنند. این مسئله بسیار حائز اهمیت است، زیرا اگر یک سیستم هوش مصنوعی در برابر این نوع حملات مقاوم نباشد، ممکن است نخواهید از آن سیستم در کارهای عملی استفاده کنید - به خصوص در برنامه‌هایی که ممکن است بر زندگی انسان‌ها تأثیر بگذارند.

QuadAttacK: ابزاری برای رفع آسیب پذیری ها

در پاسخ به این یافته‌ها، وو و تیم QuadAttacK را ایجاد کردند، یک نرم‌افزار پیشتاز که برای آزمایش سیستماتیک شبکه‌های عصبی عمیق طراحی شده است. QuadAttacK با مشاهده پاسخ یک سیستم هوش مصنوعی به داده‌های سالم و یادگیری نحوه تصمیم‌گیری، آسیب‌پذیری‌های دشمن را شناسایی می‌کند و سپس داده‌ها را دستکاری می‌کند تا آسیب‌پذیری‌های هوش مصنوعی را آزمایش کند.

وو توضیح می‌دهد: "QuadAttacK این عملیات‌ها را مشاهده و یاد می‌گیرد که چگونه هوش مصنوعی در مورد داده‌ها تصمیم می‌گیرد. این به QuadAttacK این امکان را می‌دهد که تشخیص دهد که چگونه داده‌ها را می‌توان برای گمراه کردن هوش مصنوعی دستکاری کرد.

در آزمایش اثبات مفهوم، QuadAttacK برای ارزیابی چهار شبکه عصبی پرکاربرد استفاده شد. نتایج بسیار شگفت‌آور بودند.

وو با برجسته کردن یک موضوع حائز اهمیت در زمینه هوش مصنوعی، می‌گوید: "ما از اینکه متوجه شدیم که هر چهار شبکه در برابر حملات متخاصم بسیار آسیب‌پذیر هستند، شگفت‌زده شدیم.

این یافته‌ها به عنوان یک هشدار مهم برای جامعه تحقیقاتی هوش مصنوعی و صنایع مرتبط با فناوری‌های هوش مصنوعی عمل می‌کند. آسیب‌پذیری‌های شناخته‌شده نه تنها خطراتی را برای برنامه‌های فعلی ایجاد می‌کنند، بلکه نیز در مورد استقرار آینده سیستم‌های هوش مصنوعی در حوزه‌های حساس شک و تردید به وجود می‌آورند.

فراخوانی برای اقدام برای جامعه هوش مصنوعی

در دسترس بودن عمومی QuadAttacK نشان‌دهنده یک گام مهم به سوی تلاش‌های تحقیق و توسعه گسترده‌تر در ایمن سازی سیستم‌های هوش مصنوعی است. با ارائه این ابزار به عموم، وو و تیمش منبع ارزشمندی را برای محققان و توسعه‌دهندگان فراهم کرده‌اند تا آسیب‌پذیری‌های سیستم‌های هوش مصنوعی خود را شناسایی و برطرف کنند.

یافته‌های تیم تحقیقاتی و ابزار QuadAttacK در کنفرانس سیستم‌های پردازش اطلاعات عصبی (NeurIPS 2023) ارائه شده است. نویسنده اصلی این مقاله توماس پانیاگوا، دانشجوی دکتری ایالت کارولینای شمالی، در کنار رایان گرینگر، یکی از نویسندگان، نیز دانشجوی دکتری در دانشگاه هستند. این ارائه تنها یک تمرین آکادمیک نیست، بلکه فراخوانی برای اقدام در جهان هوش مصنوعی است تا به امنیت در توسعه هوش مصنوعی اولویت دهیم.

در حالی که ما در تقاطع نوآوری و امنیت هوش مصنوعی قرار داریم، کار وو و همکارانش هم یک داستان هشدار دهنده و هم نقشه راهی برای آینده‌ای هستند که در آن هوش مصنوعی هم قدرتمند و هم امن باشد. سفر پیش رو پیچیده است اما برای ادغام پایدار هوش مصنوعی در بافت جامعه دیجیتال ما ضروری است.

 

تگ ها