پیشرفت سریع هوش مصنوعی (AI) به همراه مزایا و تغییرات قابل توجهی در صنایع مختلف را به همراه داشته است. با این حال، خطرات و چالشهای جدیدی را نیز معرفی کرده است، به ویژه در مورد تقلب و امنیت. Deepfakes، محصول هوش مصنوعی مولد، به طور فزایندهای پیچیده میشود و تهدیدی اساسی برای یکپارچگی سیستمهای امنیتی مبتنی بر صدا است.
یافتههای گزارش اطلاعات و امنیت صوتی 2024 پیندروپ، تأثیر دیپفیکها بر بخشهای مختلف، پیشرفتهای فناوری که این تهدیدات را به وجود میآورد، و راهحلهای نوآورانهای که برای مبارزه با آنها توسعه مییابد را برجسته میکند.
ظهور Deepfakes
Deepfakes از الگوریتمهای پیشرفته یادگیری ماشینی برای ایجاد محتوای صوتی و تصویری مصنوعی بسیار واقعی استفاده میکند. در حالی که این فناوریها کاربردهای هیجان انگیزی در سرگرمی و رسانه دارند، چالشهای امنیتی جدی را نیز به همراه دارند. طبق گزارش پیندروپ، مصرفکنندگان آمریکایی بیشترین نگرانی را در مورد خطر دیپفیکها و شبیهسازیهای صوتی در بخش بانکی و مالی دارند و 67.5 درصد نگرانی قابل توجهی را ابراز کردهاند.
تاثیر بر موسسات مالی
موسسات مالی به ویژه در برابر حملات دیپفیک آسیبپذیر هستند. کلاهبرداران از صداهای تولید شده توسط هوش مصنوعی برای جعل هویت افراد، دسترسی غیرمجاز به حسابها و دستکاری تراکنشهای مالی استفاده میکنند. این گزارش نشان میدهد که در سال 2023 رکوردی در مورد به خطر انداختن دادهها به ثبت رسیده است که در مجموع به 3205 مورد رسیده است که افزایشی 78 درصدی نسبت به سال قبل را نشان میدهد. میانگین هزینه نقض دادهها در ایالات متحده اکنون به 9.5 میلیون دلار میرسد و مراکز تماس بیشترین پیامدهای امنیتی را متحمل میشوند.
یکی از موارد قابل توجه استفاده از صدای دیپفیک برای فریب یک شرکت مستقر در هنگکنگ برای انتقال 25 میلیون دلار بود که پتانسیل ویرانگر این فناوریها را در صورت استفاده مخرب برجسته کرد.
تهدیدهای گسترده تر برای رسانه ها و سیاست
فراتر از خدمات مالی، دیپفیک نیز خطرات قابل توجهی برای رسانهها و نهادهای سیاسی دارد. توانایی ایجاد محتوای صوتی و تصویری جعلی متقاعد کننده میتواند برای انتشار اطلاعات نادرست، دستکاری افکار عمومی و تضعیف اعتماد در فرآیندهای دموکراتیک مورد استفاده قرار گیرد. این گزارش خاطرنشان میکند که 54.9 درصد از مصرفکنندگان نگران تهدید دیپفیک برای نهادهای سیاسی هستند، در حالی که 54.5 درصد نگران تأثیر آنها بر رسانهها هستند.
در سال 2023، فناوری دیپفیک در چندین رویداد برجسته، از جمله یک حمله رباتیک که از صدای مصنوعی رئیسجمهور بایدن استفاده میکرد، دخیل بود. چنین حوادثی بر ضرورت توسعه مکانیسمهای شناسایی و پیشگیری قوی تأکید میکند.
پیشرفت های تکنولوژیکی درایو deepfakes
پیشرفت تکنولوژی هوش مصنوعی، مانند مدلهای مولد متنی مانند ChatGPT از OpenAI، Bard از گوگل، و Bing AI از مایکروسافت، به طور چشمگیری موانعی را که احتمال ایجاد دیپفیکها را کاهش میدهند، کاهش داده است. اکنون بیش از 350 سیستم هوش مصنوعی مولد برای کاربردهای مختلف وجود دارد، از جمله Eleven Labs، Descript، Podcastle، PlayHT و Speechify. به عنوان مثال، مدل VALL-E مایکروسافت قادر است صدا را از یک کلیپ صوتی کوتاه بازسازی کند.
این پیشرفتهای تکنولوژیکی باعث شده که ایجاد دیپفیکها ارزانتر و آسانتر شود و به همهی افراد دسترسی بیشتری بدهد، چه به عنوان کاربران معمولی و چه به عنوان افراد بدنام که ممکن است از این فناوری به عنوان ابزاری برای انجام کارهای ناخوشایند استفاده کنند. بر اساس پیشبینیهای گارتنر، تا سال 2025، 80 درصد از ارائههای هوش مصنوعی محاورهای از مدلهای هوش مصنوعی مولد استفاده میکنند، که این درصد در سال 2023، تنها 20 درصد بود.
مبارزه با دیپ فیک: نوآوری های pindrop
برای مقابله با رشد دیپفیک، Pindrop چندین راهحل پیشرفته ارائه کرده است. یکی از مهمترین آنها، گارانتی Pulse Deepfake است، که اولین گارانتی اینچنینی است. اگر محصولات Pindrop نتوانند تقلب صوتی عمیق یا مصنوعی را تشخیص دهند، به مشتریان واجد شرایط بازپرداخت ارائه میدهد. این اقدام با هدف ایجاد آرامش خاطر در مشتریان صورت گرفته و در عین حال فشاری بر روی قابلیتهای شناسایی تقلب وارد میکند.
راه حل های تکنولوژیکی برای افزایش امنیت
گزارش Pindrop برجسته کردن کارایی فناوری تشخیص زنده بودن را به تصویب میرساند. این فناوری تماسهای تلفنی زنده را برای ویژگیهای طیفی-زمانی تجزیه و تحلیل میکند تا نشان دهد آیا صدای تماس «زنده» است یا مصنوعی. در آزمایش داخلی، راهحل تشخیص زنده بودن پیندروپ 12 درصد دقیقتر از سیستمهای تشخیص صدا و 64 درصد دقیقتر از انسان در شناسایی صداهای مصنوعی بوده است.
همچنین، Pindrop از پیشگیری و احراز هویت چندعاملی یکپارچه کلاهبرداری استفاده میکند. این شامل استفاده از صدا، دستگاه، رفتار، فراداده حامل و سیگنالهای زنده است. این رویکرد چند لایه به طور قابل توجهی نوار را برای کلاهبرداران افزایش میدهد و موفقیت را برای آنها دشوارتر میکند.
روندهای آینده و آمادگی
با نگاه به آینده، این گزارش پیشبینی میکند که کلاهبرداریهای دیپفیک همچنان در حال افزایش هستند و تنها مراکز تماس در ایالات متحده را با خطر 5 میلیارد دلاری مواجه میکنند. پیچیدگی روزافزون سیستمهای تبدیل متن به گفتار، همراه با فناوری گفتار مصنوعی کمهزینه، چالشهای مداومی را ایجاد میکند.
برای جلوگیری از این تهدیدات، Pindrop تکنیکهای تشخیص زودهنگام خطر، مانند تشخیص جعل شناسه تماسگیرنده و تشخیص تقلب مستمر، را برای نظارت و کاهش فعالیتهای تقلبی در زمان واقعی پیشنهاد میدهد. با اجرای این اقدامات امنیتی پیشرفته، سازمانها میتوانند بهتر از خود در برابر چشمانداز در حال تحول کلاهبرداری مبتنی بر هوش مصنوعی محافظت کنند.