وجود آسیب پذیری های پنهان در هوش مصنوعی
-
1402/10/2
-
تحقيق و پژوهش
-
7857
-
0
-
0
در دوران فعلی که هوش مصنوعی به سرعت در حال تحول است، تغییرات بسیاری در زمینههای مختلف رخ میدهد. این تغییرات شامل انقلابی در حوزه وسایل نقلیه خودران که نحوه حمل و نقل را تغییر میدهند و همچنین استفاده پیچیده از هوش مصنوعی در تفسیر تصاویر پزشکی میشود. پیشرفتهای بهدستآمده در فناوری هوش مصنوعی مشخصه یک رنسانس دیجیتال است و امکانات بسیاری برای آینده به وجود میآید.
اما مطالعات اخیر نشان میدهد که یک جنبه نگرانکننده ممکن است که معمولاً نادیده گرفته میشود: افزایش آسیبپذیری سیستمهای هوش مصنوعی در برابر حملات هدفمند دشمن. این موضوع نشان میدهد که قوت برنامههای هوش مصنوعی در حوزههای حیاتی به چالش کشیده میشود و نیاز به درک عمیقتر از این آسیبپذیریها برجسته میشود.
مفهوم Adversarial Attacks
حملات خصمانه در حوزه هوش مصنوعی به نوعی تهدید سایبری اشاره دارد که در آن، مهاجمان با عمدتاً دستکاری دادههای ورودی یک سیستم هوش مصنوعی سعی در گمراه کردن آن دارند تا به تصمیمات یا دستهبندیهای نادرست منجر شوند. این نوع حملات از نقاط ضعف ذاتی در پردازش و تفسیر دادهها توسط الگوریتمهای هوش مصنوعی بهره میبرند.
به عنوان مثال، فرض کنید یک وسیله نقلیه خودران داریم که برای تشخیص علائم راهنمایی و رانندگی به هوش مصنوعی وابسته است. در یک حمله خصمانه، میتوانند به سادگی یک برچسب جعلی را بر روی یک علامت توقف قرار دهند، که باعث میشود هوش مصنوعی بهطور اشتباه آن را تفسیر کرده و به عواقب خطرناکی منجر شود. به همین ترتیب، در زمینه پزشکی، یک هکر ممکن است دادههای وارد شده به یک سیستم هوش مصنوعی که تصاویر اشعه ایکس را تجزیه و تحلیل میکند، را دستکاری کند و منجر به تشخیصهای نادرست گردد. این مثالها نشاندهنده ماهیت حیاتی این آسیبپذیریها هستند، بهویژه در برنامههایی که ایمنی و جان انسانها در معرض خطر است.
این تحقیق توسط تیانفو وو، یک دانشیار در رشته مهندسی برق و کامپیوتر در دانشگاه ایالتی کارولینای شمالی، اجرا شده است. او به بررسی گستردگی آسیبپذیریهای متخاصم پرداخته و نشان داده است که این آسیبپذیریها بسیار رایجتر از آنچه پیشتر پنداشته شده است. این افشاگری به ویژه در زمینه تلفیق روزافزون هوش مصنوعی در فناوریهای حیاتی و روزمره به نگرانی تبدیل میشود.
وو اهمیت این وضعیت را تأکید میکند و میگوید: «حملهکنندگان میتوانند از این آسیبپذیریها بهرهمند شوند تا هوش مصنوعی را وادار به تفسیر دادهها به هر شکلی که بخواهند کنند. این مسئله بسیار حائز اهمیت است، زیرا اگر یک سیستم هوش مصنوعی در برابر این نوع حملات مقاوم نباشد، ممکن است نخواهید از آن سیستم در کارهای عملی استفاده کنید - به خصوص در برنامههایی که ممکن است بر زندگی انسانها تأثیر بگذارند.
QuadAttacK: ابزاری برای رفع آسیب پذیری ها
در پاسخ به این یافتهها، وو و تیم QuadAttacK را ایجاد کردند، یک نرمافزار پیشتاز که برای آزمایش سیستماتیک شبکههای عصبی عمیق طراحی شده است. QuadAttacK با مشاهده پاسخ یک سیستم هوش مصنوعی به دادههای سالم و یادگیری نحوه تصمیمگیری، آسیبپذیریهای دشمن را شناسایی میکند و سپس دادهها را دستکاری میکند تا آسیبپذیریهای هوش مصنوعی را آزمایش کند.
وو توضیح میدهد: "QuadAttacK این عملیاتها را مشاهده و یاد میگیرد که چگونه هوش مصنوعی در مورد دادهها تصمیم میگیرد. این به QuadAttacK این امکان را میدهد که تشخیص دهد که چگونه دادهها را میتوان برای گمراه کردن هوش مصنوعی دستکاری کرد.
در آزمایش اثبات مفهوم، QuadAttacK برای ارزیابی چهار شبکه عصبی پرکاربرد استفاده شد. نتایج بسیار شگفتآور بودند.
وو با برجسته کردن یک موضوع حائز اهمیت در زمینه هوش مصنوعی، میگوید: "ما از اینکه متوجه شدیم که هر چهار شبکه در برابر حملات متخاصم بسیار آسیبپذیر هستند، شگفتزده شدیم.
این یافتهها به عنوان یک هشدار مهم برای جامعه تحقیقاتی هوش مصنوعی و صنایع مرتبط با فناوریهای هوش مصنوعی عمل میکند. آسیبپذیریهای شناختهشده نه تنها خطراتی را برای برنامههای فعلی ایجاد میکنند، بلکه نیز در مورد استقرار آینده سیستمهای هوش مصنوعی در حوزههای حساس شک و تردید به وجود میآورند.
فراخوانی برای اقدام برای جامعه هوش مصنوعی
در دسترس بودن عمومی QuadAttacK نشاندهنده یک گام مهم به سوی تلاشهای تحقیق و توسعه گستردهتر در ایمن سازی سیستمهای هوش مصنوعی است. با ارائه این ابزار به عموم، وو و تیمش منبع ارزشمندی را برای محققان و توسعهدهندگان فراهم کردهاند تا آسیبپذیریهای سیستمهای هوش مصنوعی خود را شناسایی و برطرف کنند.
یافتههای تیم تحقیقاتی و ابزار QuadAttacK در کنفرانس سیستمهای پردازش اطلاعات عصبی (NeurIPS 2023) ارائه شده است. نویسنده اصلی این مقاله توماس پانیاگوا، دانشجوی دکتری ایالت کارولینای شمالی، در کنار رایان گرینگر، یکی از نویسندگان، نیز دانشجوی دکتری در دانشگاه هستند. این ارائه تنها یک تمرین آکادمیک نیست، بلکه فراخوانی برای اقدام در جهان هوش مصنوعی است تا به امنیت در توسعه هوش مصنوعی اولویت دهیم.
در حالی که ما در تقاطع نوآوری و امنیت هوش مصنوعی قرار داریم، کار وو و همکارانش هم یک داستان هشدار دهنده و هم نقشه راهی برای آیندهای هستند که در آن هوش مصنوعی هم قدرتمند و هم امن باشد. سفر پیش رو پیچیده است اما برای ادغام پایدار هوش مصنوعی در بافت جامعه دیجیتال ما ضروری است.