• 1403/04/25 - 08:07
  • بازدید: 43
  • زمان مطالعه : 4 دقیقه

آینده‌ای که برایش آماده نیستیم: هکرهای هوش مصنوعی

این روزها همه جا صحبت از پیشرفت‌های هوش مصنوعی و فرصت‌هایی است در اختیار انسان قرار خواهد داد. در همین حال نگرانی‌هایی هم درباره تهدیدات این فناوری از جمله از دست رفتن فرصت‌های شغلی و جایگزینی انسان‌ها با ربات وجود دارد. اما شاید یکی از اولین گروه‌هایی که با پیشرفت AI جایگزین می‌شوند کسانی باشند که انتظارش را نداریم: هکرها. 

به گزارش Harvard Magazine، در سال 2016 و در جریان کنفرانس DEF CON، همایش سالانه هکرها در لاس وگاس نوادا، جایی که هک کردن دستگاه‌های خودپرداز یا به دست گرفتن کنترل خطوط ترافیک هوایی دیگر کسی را هیجان‌زده نمی‌کند، برگزار کنندگان همایش رویداد جدیدی را ترتیب دادند. در این رویداد به جای انسان‌ها، این کامپیوترها بودند که باید کامپیوترهای دیگر را هک می‌‌کردند.

این رقابت که با همکاری آژانس پروژه‌های تحقیقاتی دفاعی پیشرفته یا DARPA، یکی از زیرمجموعه‌های وزارت دفاع آمریکا، برپا شده بود، به صورت یک بازی برگزار می‌شد: هر AI که بتواند در زمان 10 ساعته مسابقه بهتر از بقیه از آسیب‌پذیری‌های دیگر کامپیوترها استفاده کند و درعین حال از خودش در برابر نفوذ محافظت کند، جایزه 2 میلیون دلاری را نصیب سازندگانش می‌کرد.

 

 

از دید انسان‌ها، رقابت بین ربات‌ها با کارکردن معمولی کامپیوترها تفاوت نداشت، تعدادی رک سرور که به صورت نیم‌دایره روبه‌روی هم قرار گرفته بودند و چراغ‌های LEDشان خاموش و روشن می‌شد. اما از دید «بروس اشنایر»، یک متخصص امنیت سیستم‌های کامپیوتری و سخنران همکار در مدرسه سیاست عمومی هاروارد، آنچه در آن روز اتفاق افتاد روزنه‌ای به سوی آینده‌ای نه چندان دور بود که در آن هوش مصنوعی می‌تواند جوری از آسیب‌پذیری‌های کامپیوتری استفاده کند که در تصور هیچ انسانی نمی‌گنجد.

هوش مصنوعی مثل انسان فکر نمی‌کند

البته این هکرهای هوش مصنوعی منحصر به کامپیوترها نخواهند بود، از هک سیستم‌های اقتصادی و سیاسی گرفته تا مهندسی اجتماعی می‌تواند توسط AI انجام شود و کسی متوجه آن نخواهد شد تا وقتی که دیگر دیر شده باشد.

اشنایر در کتاب جدیدش «ذهن یک هکر»  می‌گوید:

 انسان‌ها در مواجهه  با یک فرایند پیچیده که توسط قوانین و مقررات محدود شده است، همیشه به دنبال راه‌هایی می‌گردند که بدون شکستن قوانین و برخلاف اهداف سیستم، به نفع خود از آن استفاده کنند. فرقی نمی‌کند که آن سیستم یک کامپیوتر باشد یا رقابت‌های ورزشی یا حتی نهادهای دموکراتیک، همه سیستم‌های پیچیده آسیب‌پذیر هستند.

از همین رو تعجبی ندارد که انسان‌ها تلاش داشته باشند تا از هوش مصنوعی برای هک کردن استفاده کنند. ماشین‌ها هرگز نمی‌خوابند و توانایی AI در تحلیل داده‌های حجیم با انسان‌ قابل قیاس نیست. آنها می‌توانند الگوهایی را کشف کنند و اطلاعاتی را در نظر بگیرد که ممکن است از دید انسان پنهان بماند. با این وجود از نظر اشنایر بزرگ‌ترین تفاوت هوش مصنوعی و انسان چیز دیگری است: ربات‌ها مثل انسان فکر نمی‌کنند.

هوش مصنوعی نیز مثل انسان ‌می‌تواند از تجربه‌های خود بیاموزد اما برخلاف نوع بشر، کامپیوترها اسیر نرم‌های اخلاقی یا اجتماعی یا سوگیری‌های ما نیستند. و همین موضوع به آنها کمک می‌کند روش‌هایی را پیدا کنند که به ذهن هیچ انسانی نمی‌رسد.

به عنوان مثال اشنایر به ربات جارو برقی اشاره می‌کند که برای جلوگیری از برخورد با موانع از یک هوش مصنوعی در آن استفاده شده بود، اما ربات به جای آنکه یاد بگیرد چگونه از موانع دوری کند، نحوه حرکت به سمت عقب را آموخته بود که باز هم هدف را محقق می‌کرد، اما با روشی که اشنایر اصلا به آن فکر نکرده بود.


هوش مصنوعی Deep Mind گوگل در سال 2016 موفق شد در بازی پیچیده Go بهترین بازیکن جهان را شکست دهد.

اشنایر اعتقاد دارد که هرچند ایده هکرهای AI بیشتر به داستان‌های علمی تخیلی شبیه است اما شاید آنقدر که فکر می‌کنیم از ما دور نباشد. برنده رویداد دارپا، Mayhem، در سال 2016 در برابر انسان‌ها شانسی نداشت اما طی سال‌های گذشته آنقدر پیشرفت کرده که توسط وزارت دفاع مورد استفاده قرار می‌گیرد.

در حال حاضر به نظر می‌رسد جامعه بشری برای مقابله با حملات هکری هوش مصنوعی آمادگی ندارد. در روش فعلی، شرکت‌های نرم‌افزاری آسیب‌پذیری‌های امنیتی را با فاصله زمانی اندکی بعد از شناسایی توسط بروزرسانی برطرف می‌کنند. اما این روش در برابر هوش مصنوعی ممکن است کارایی لازم را نداشته باشد.

جالب اینکه شاید تنها راه مقابله با هکر‌های هوش مصنوعی، استفاده از هکرهای هوش مصنوعی باشد! مثل نقشی که هکرهای کلاه‌ سفید در یافتن نفوذپذیری‌های امنیتی بازی می‌کنند، شاید روزی برسد که مجبور باشیم دفاع از سیستم‌های کامپیوتری را نیز به هکرهای AI کلاه سفید بسپاریم.

 

منبع: سخت افزار

  • گروه خبری : مقالات
  • کد خبر : 16985
مهندس فاطمه زارعی
خبرنگار

مهندس فاطمه زارعی

اخبار فناوری

آرشیو