آیا شبکه های اجتماعی می توانند تیراندازی های مرگبار را قبل از وقوع پیش بینی کنند؟

تیراندازی در ال پاسو و دیتون طی روزهای گذشته، یکی دیگر از فجایع خونبار آمریکا را رقم زد و حداقل 31 نفر را به کام مرگ نشاند. همان طور که انتظار می رفت دونالد ترامپ رئیس جمهور آمریکا در جریان سخنرانی پس از این دو حادثه، ابتدا انگشت اتهام را به سمت بازی های ویدیویی نشانه رفت و سپس از شرکت های مالک شبکه های اجتماعی مثل توییتر و فیسبوک خواست تا تروریست ها را قبل از حمله شناسایی کنند.ترامپ در جریان سخنرانی در کاخ سفید و در پاسخ به تیراندازی در ال پاسو گفت:

«من به وزارت دادگستری دستور می دهم با همکاری سازمان ها و نهادهای محلی، ایالتی و فدرال و با کمک شرکت های تکنولوژی [شبکه های اجتماعی] ابزارهایی را توسعه دهند تا تروریست ها و مهاجمین را قبل از حمله شناسایی کنند.»
در جریان حوادث مرگبار هفته جاری، ابتدا فروشگاه والمارت شهر ال پاسو در تگزاس مورد حمله قرار گرفته و 22 نفر کشته شدند. چند ساعت بعد در شهر دیتون ایالت اوهایو شاهد حادثه دیگری بود که 10 نفر (از جمله خود تیرانداز) را به کام مرگ کشاند. تیراندازی در ال پاسو توسط فردی انجام شد که بیانیه نژادپرستانه ای مملو از اظهارات برتری نژادی سفیدپوستان را روی وب سایت 8chan منتشر کرده بود. این سایت که معمولاً میزان محتوای نفرت انگیز است، به همین دلیل از سوی شرکت های بزرگ دنیای تکنولوژی تحریم شده و از کار افتاده است. با این حال تا جایی که می دانیم، هیچکدام از دو تیرانداز از تصمیم شوم خود در شبکه های اجتماعی حرفی نزده بودند.

ترامپ بعد از تیراندازی در ال پاسو بار سرزنش را به دوش شبکه های اجتماعی انداخت
فرمان مبهم ترامپ، بخشی از سرزنش جمعی نسبت به خشونت مسلحانه را روی دوش شبکه اجتماعی می اندازد. این پلتفرم ها به اطلاعات شخصی، علایق و نظرات میلیاردها نفر دسترسی دارند و می توانند در آنها کندوکاو کنند. اما تحلیل اطلاعات و شناسایی تهدیدهای واقعی برای خبر دادن به مقامات یک مسئله است، و استفاده از الگوریتم های هوشمند برای شناسایی تروریست های بالقوه مسئله دیگریست.

شرکت هایی مثل گوگل، فیسبوک، توییتر و آمازون همین حالا هم از الگوریتم هایی برای پیش بینی علایق و رفتار کاربران استفاده می کنند تا در نهایت بدانند که تمایل به خرید چه کالاهایی دارید. گاهی اوقات این الگوریتم ها بسیار خوب عمل می کنند؛ مثلاً اسپاتیفای به خوبی سلیقه موسیقی شما را تشخیص داده و پلی لیست های اختصاصی را برای شما آماده می کند. بنابراین روی کاغذ، این شرکت ها می توانند از فناوری مشابه برای تشخیص مهاجمین و تروریست ها هم استفاده کنند.

«شلی پالمر» محقق و مشاور حوزه تکنولوژی و مارکتینگ در این باره می گوید:

«برای یک الگوریتم، ارزیابی احتمال خرید یک جفت کفش خاص توسط شما تفاوت چندانی با احتمال تیراندازی کور و کشتار جمعی ندارد. فقط کافیست داده های مناسب و کافی را در اختیارش قرار دهیم.»

با این حال پیشگیری از تیراندازی کور و حملات تروریستی قبل از اتفاق، سؤالات حقوقی مهمی را در پی خواهد داشت: چطور می توان یک فرد خشمگین در شبکه های اجتماعی را از یک تروریست مصمم تفکیک کرد؟ آیا می توان فردی را به خاطر احتمال انجام حمله تروریستی، آن هم بر اساس پیش بینی کامپیوتر، دستگیر و متهم نمود؟

سخنگوی توییتر در مورد فرمان ترامپ و امکان پذیری آن صحبت نمی کند، اما می گوید این شرکت فقط در نیمه دوم سال 2018 میلادی بیش از 166 هزار حساب کاربری را به خاطر اشاعه تروریسم مسدود کرده است. سیاست های توییتر به کاربران اجازه نمی دهد در مورد «آسیب جدی فیزیکی، مرگ یا بیماری یک فرد یا گروهی از افراد» صحبت کنند و خشونت را رواج دهند.

توییتر در صورت درخواست مقامات و به منظور تسهیل روند تحقیقات، اطلاعات مورد نیاز را در اختیار آنها قرار می دهد اما هیچوقت به شکل سرخود اقدام به جداسازی اکانت های خاص یا شناسایی صاحب اکانت نمی کند. حتی اگر چنین کاری هم انجام دهد، سازمان های اطلاعاتی آمریکا مثل FBI توانایی بررسی و زیر نظر گرفتن 166 هزار نفر را نخواهند داشت.

فیسبوک هنوز در این زمینه و نحوه همکاری با نهادهای ایالتی و دولتی اظهار نظر نکرده است. البته این شرکت سابقه خوبی در زمینه حریم شخصی و پیشگیری از نفرت پراکنی ندارد. سیاست های فیسبوک برای جلوگیری از خشونت و نفرت در این پلتفرم شبکه اجتماعی بسیار طولانی و کامل است، ولی تصمیم گیری در مورد حذف محتوا و مسدود کردن حساب های کاربری در نهایت به تیم انسانی کنترل محتوا بر می گردد.

حتی اگر فردی دقیقاً قبل از انجام حمله تروریستی و تیراندازی کور به انتشار پست در شبکه های اجتماعی اقدام کند، باز هم احتمال اینکه سیاست های کلی توییتر و فیسبوک را زیر پا گذاشته و به عنوان تروریست بالقوه شناسایی شود بسیار اندک است. به عنوان مثال فردی که سه نفر را در فستیوال گارلیک گیلروی در کالیفرنیای شمالی به قتل رساند، پیش از انجام این عمل در اینستاگرام از قیمت بسیار بالای غذاها شکایت داشت. او همچنین فالوورهایش را به مطالعه کتاب نژادپرستانه محبوب ملی گرایان متعلق به قرن نوزدهم تشویق کرده بود.

با جستجوی ساده در توییتر و اینستاگرام به موارد متعدد مهاجرستیزی و نژادپرستی می رسیم
جستجوی ساده در توییتر و اینستاگرام، شما را به موارد مشابه متعددی از مهاجرستیزی و نژادپرستی می رساند، یعنی چیزی شبیه مهاجمی که تیراندازی در ال پاسو را ترتیب داد. مهاجم حادثه کنیسه پیتسبورگ در سال 2018 و تیراندازی در مسجد کرایستچرچ در ماه مارس سال جاری هم در فضای وب و شبکه های اجتماعی از ملی گرایی و برتری سفیدپوست ها صحبت کرده بودند. شرکت های فناوری می توانند الگوریتم هایی را برای شناسایی چنین رفتارهایی و زیر نظر گرفتن این دست کاربران توسعه دهند، ولی این کار به تغییر گسترده در سیاست های محرمانگی نیاز دارد. در واقع آنها باید قبل از اینکه کسی بتواند فرد یا گروه دیگری را تهدید کند، حساب کاربری او را مسدود کرده و موضوع را به مقامات اطلاع دهند.

البته صحت عملکرد این الگوریتم ها نیز همیشه جای سؤال خواهد داشت. کنسرسیوم مشارکت در هوش مصنوعی (Partnership on AI) که آینده هوش مصنوعی را زیر نظر دارد، تحقیق جامعی را روی الگوریتم های پیش بینی جرم و جنایت انجام داده است. جمع بندی آنها نشان می دهد این ابزارها را نباید به تنهایی استفاده کرد و بر اساس نتایج آنها، تصمیم به بازداشت یا زندانی کردن افراد گرفت.

این سازمان در گزارش خود می نویسد:

«اگرچه استفاده از این ابزارها تا حدی می تواند خطای انسانی را در سیستم عدالت کیفری کاهش دهد، اما نمی توان از انها انتظار داشت کاملاً عینی و بی طرفانه عمل کنند، چون اطلاعاتی که دریافت می کنند به هیچ وجه خنثی و بدون جهت نیست.»
الگوریتم ها در حال حاضر به راحتی اشتباه می کنند یا می توان از آنها سوء استفاده کرد. هر روز تبلیغات آنلاین پیشنهادات زیادی به شما می دهند که علاقه ای به خرید یا استفاده از آنها ندارید. بعضی از گروه های افراطی راست تندرو از الگوریتم های یوتیوب برای اشاعه محتوای مهاجرستیزی و نژادپرستی استفاده می کردند تا اینکه گوگل ماه گذشته الگوریتم های خودش را تغییر داد. باز هم پیشگیری از افراطی گری یک مسئله است و پیش بینی جرائم آتی، مبحث دیگریست.

وزارت دادگستری آمریکا هم هنوز در مورد سخنان ترامپ اظهار نظر نکرده است و به نظر نمی رسد که فعلاً برنامه مدون و مشخصی برای این کار وجود داشته باشد. شاید به یک «هارولد فینچ» و کامپیوتر اسرارآمیزش نیاز داریم تا بتواند تروریست های بالقوه را شناسایی کند؛ البته اگر دولت آمریکا این افراد را «غیر مرتبط» تشخیص ندهد.

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *