deepfakes ، Pindrop و امنیت هوش مصنوعی در سال 2024

  • 1403/3/12
  • افزايش بهره وري
  • 2293
  • 0
  • 0
image

پیشرفت سریع هوش مصنوعی (AI) به همراه مزایا و تغییرات قابل توجهی در صنایع مختلف را به همراه داشته است. با این حال، خطرات و چالش‌های جدیدی را نیز معرفی کرده است، به ویژه در مورد تقلب و امنیت. Deepfakes، محصول هوش مصنوعی مولد، به طور فزاینده‌ای پیچیده می‌شود و تهدیدی اساسی برای یکپارچگی سیستم‌های امنیتی مبتنی بر صدا است.

یافته‌های گزارش اطلاعات و امنیت صوتی 2024 پیندروپ، تأثیر دیپ‌فیک‌ها بر بخش‌های مختلف، پیشرفت‌های فناوری که این تهدیدات را به وجود می‌آورد، و راه‌حل‌های نوآورانه‌ای که برای مبارزه با آن‌ها توسعه می‌یابد را برجسته می‌کند.

ظهور Deepfakes

Deepfakes از الگوریتم‌های پیشرفته یادگیری ماشینی برای ایجاد محتوای صوتی و تصویری مصنوعی بسیار واقعی استفاده می‌کند. در حالی که این فناوری‌ها کاربردهای هیجان انگیزی در سرگرمی و رسانه دارند، چالش‌های امنیتی جدی را نیز به همراه دارند. طبق گزارش پیندروپ، مصرف‌کنندگان آمریکایی بیشترین نگرانی را در مورد خطر دیپ‌فیک‌ها و شبیه‌سازی‌های صوتی در بخش بانکی و مالی دارند و 67.5 درصد نگرانی قابل توجهی را ابراز کرده‌اند.

تاثیر بر موسسات مالی

موسسات مالی به ویژه در برابر حملات دیپ‌فیک آسیب‌پذیر هستند. کلاهبرداران از صداهای تولید شده توسط هوش مصنوعی برای جعل هویت افراد، دسترسی غیرمجاز به حساب‌ها و دستکاری تراکنش‌های مالی استفاده می‌کنند. این گزارش نشان می‌دهد که در سال 2023 رکوردی در مورد به خطر انداختن داده‌ها به ثبت رسیده است که در مجموع به 3205 مورد رسیده است که افزایشی 78 درصدی نسبت به سال قبل را نشان می‌دهد. میانگین هزینه نقض داده‌ها در ایالات متحده اکنون به 9.5 میلیون دلار می‌رسد و مراکز تماس بیشترین پیامدهای امنیتی را متحمل می‌شوند.

یکی از موارد قابل توجه استفاده از صدای دیپ‌فیک برای فریب یک شرکت مستقر در هنگ‌کنگ برای انتقال 25 میلیون دلار بود که پتانسیل ویرانگر این فناوری‌ها را در صورت استفاده مخرب برجسته کرد.

تهدیدهای گسترده تر برای رسانه ها و سیاست

فراتر از خدمات مالی، دیپ‌فیک نیز خطرات قابل توجهی برای رسانه‌ها و نهادهای سیاسی دارد. توانایی ایجاد محتوای صوتی و تصویری جعلی متقاعد کننده می‌تواند برای انتشار اطلاعات نادرست، دستکاری افکار عمومی و تضعیف اعتماد در فرآیندهای دموکراتیک مورد استفاده قرار گیرد. این گزارش خاطرنشان می‌کند که 54.9 درصد از مصرف‌کنندگان نگران تهدید دیپ‌فیک برای نهادهای سیاسی هستند، در حالی که 54.5 درصد نگران تأثیر آنها بر رسانه‌ها هستند.

در سال 2023، فناوری دیپ‌فیک در چندین رویداد برجسته، از جمله یک حمله رباتیک که از صدای مصنوعی رئیس‌جمهور بایدن استفاده می‌کرد، دخیل بود. چنین حوادثی بر ضرورت توسعه مکانیسم‌های شناسایی و پیشگیری قوی تأکید می‌کند.

پیشرفت های تکنولوژیکی درایو deepfakes

پیشرفت تکنولوژی هوش مصنوعی، مانند مدل‌های مولد متنی مانند ChatGPT از OpenAI، Bard از گوگل، و Bing AI از مایکروسافت، به طور چشمگیری موانعی را که احتمال ایجاد دیپ‌فیک‌ها را کاهش می‌دهند، کاهش داده است. اکنون بیش از 350 سیستم هوش مصنوعی مولد برای کاربردهای مختلف وجود دارد، از جمله Eleven Labs، Descript، Podcastle، PlayHT و Speechify. به عنوان مثال، مدل VALL-E مایکروسافت قادر است صدا را از یک کلیپ صوتی کوتاه بازسازی کند.

این پیشرفت‌های تکنولوژیکی باعث شده که ایجاد دیپ‌فیک‌ها ارزان‌تر و آسان‌تر شود و به همه‌ی افراد دسترسی بیشتری بدهد، چه به عنوان کاربران معمولی و چه به عنوان افراد بدنام که ممکن است از این فناوری به عنوان ابزاری برای انجام کارهای ناخوشایند استفاده کنند. بر اساس پیش‌بینی‌های گارتنر، تا سال 2025، 80 درصد از ارائه‌های هوش مصنوعی محاوره‌ای از مدل‌های هوش مصنوعی مولد استفاده می‌کنند، که این درصد در سال 2023، تنها 20 درصد بود.

مبارزه با دیپ فیک: نوآوری های pindrop

برای مقابله با رشد دیپ‌فیک، Pindrop چندین راه‌حل پیشرفته ارائه کرده است. یکی از مهمترین آنها، گارانتی Pulse Deepfake است، که اولین گارانتی این‌چنینی است. اگر محصولات Pindrop نتوانند تقلب صوتی عمیق یا مصنوعی را تشخیص دهند، به مشتریان واجد شرایط بازپرداخت ارائه می‌دهد. این اقدام با هدف ایجاد آرامش خاطر در مشتریان صورت گرفته و در عین حال فشاری بر روی قابلیت‌های شناسایی تقلب وارد می‌کند.

راه حل های تکنولوژیکی برای افزایش امنیت

گزارش Pindrop برجسته کردن کارایی فناوری تشخیص زنده بودن را به تصویب می‌رساند. این فناوری تماس‌های تلفنی زنده را برای ویژگی‌های طیفی-زمانی تجزیه و تحلیل می‌کند تا نشان دهد آیا صدای تماس «زنده» است یا مصنوعی. در آزمایش داخلی، راه‌حل تشخیص زنده بودن پیندروپ 12 درصد دقیق‌تر از سیستم‌های تشخیص صدا و 64 درصد دقیق‌تر از انسان در شناسایی صداهای مصنوعی بوده است.

همچنین، Pindrop از پیشگیری و احراز هویت چندعاملی یکپارچه کلاهبرداری استفاده می‌کند. این شامل استفاده از صدا، دستگاه، رفتار، فراداده حامل و سیگنال‌های زنده است. این رویکرد چند لایه به طور قابل توجهی نوار را برای کلاهبرداران افزایش می‌دهد و موفقیت را برای آنها دشوارتر می‌کند.

روندهای آینده و آمادگی

با نگاه به آینده، این گزارش پیش‌بینی می‌کند که کلاهبرداری‌های دیپ‌فیک همچنان در حال افزایش هستند و تنها مراکز تماس در ایالات متحده را با خطر 5 میلیارد دلاری مواجه می‌کنند. پیچیدگی روزافزون سیستم‌های تبدیل متن به گفتار، همراه با فناوری گفتار مصنوعی کم‌هزینه، چالش‌های مداومی را ایجاد می‌کند.

برای جلوگیری از این تهدیدات، Pindrop تکنیک‌های تشخیص زودهنگام خطر، مانند تشخیص جعل شناسه تماس‌گیرنده و تشخیص تقلب مستمر، را برای نظارت و کاهش فعالیت‌های تقلبی در زمان واقعی پیشنهاد می‌دهد. با اجرای این اقدامات امنیتی پیشرفته، سازمان‌ها می‌توانند بهتر از خود در برابر چشم‌انداز در حال تحول کلاهبرداری مبتنی بر هوش مصنوعی محافظت کنند.

تگ ها