
در جهان دیجیتالمحور امروز، دادهها فقط ابزار تحلیل و تصمیمگیری نیستند؛ گزارشها حاکی ازین است که این ابزار محبوب با کمک شرکت های بزرگ و مشهور فناوری به یک سلاح قدرتمند کشتار جمعی تبدیل شده است. در واقع با ظهور هوش مصنوعی در حوزههای امنیتی و نظامی، ما با شکلی جدید از خشونت ساختاری مواجهیم که زیر پوست فناوری جریان دارد: نسلکشی دادهمحور (Data-driven Genocide).
بر اساس گزارشها، ارتش اسرائیل از سامانهای به نام Lavender استفاده کرده است؛ یک پلتفرم مبتنی بر هوش مصنوعی که با تحلیل دادههای بیومتریک، مکانی، ارتباطات دیجیتال و الگوهای رفتاری، هزاران فلسطینی را شناسایی و بهعنوان “هدف مشروع” معرفی میکند. این سیستم، در کمتر از چند ثانیه و بدون مداخله انسانی، تصمیم میگیرد که چه کسی زنده بماند و چه کسی کشته شود.
یکی از فناوریهایی که در این زمینه به کار میرود، فناوری پدر کجاست (Where’s Father) است که سیستم ردیابی جغرافیایی اهداف را با دقت بالایی انجام میدهد. این سیستم بهشکلی طراحی شده که پیش از حمله، میتواند اهداف را تا منزلشان تعقیب کند و مسیرهای پیشرفتهای را برای عملیاتهای نظامی طراحی نماید. این دو فناوری، Lavender و پدر کجاست، اجزای مهم سیستم «زنجیره کشتار» را تشکیل میدهند که ارتش اشغالگر برای شناسایی و هدفگذاری افراد از آن استفاده میکند.
در همین راستا، شرکتهای مایکروسافت، گوگل، و متا (که شامل اینستاگرام، فیسبوک و واتساپ میشود) از هوش مصنوعی برای جمعآوری و تحلیل دادههای حساس از کاربران استفاده میکنند. این دادهها شامل اطلاعات مکانی، شبکه ارتباطات آنلاین و حتی الگوهای رفتاری کاربران میشود. این شرکتها اطلاعات کاربران را از طریق سرویسهای مختلف جمعآوری کرده و در اختیار دولتها و نهادهای امنیتی از جمله رژیم صهیونیستی و ارتش آمریکا قرار میدهند تا از آن برای عملیاتهای امنیتی و نظامی، مثل ترور شخصیت ها و کشتار جمعی، بهرهبرداری شود.
نمونه دیگری از دسترسی به دادهها از طریق پلتفرمهای اجتماعی، شبیه به چالش استودیو گیبلی (Ghibli Studio Challenge) است که در آن مردم بهطور رایگان اطلاعات بیومتریک و جغرافیای خود را از طریق تصاویر به اشتراک میگذارند. این اطلاعات میتوانند به راحتی توسط سامانههای هوش مصنوعی برای هدفگذاری و جمعآوری دادههای مربوط به رفتار کاربران استفاده شوند.
اما فاجعه دیگری که به صورت کاملا خزنده و زیر پوستی دنیای نخبگان و کاربران تاثیرگذار و صاحب تحلیل را به خصوص در کشورهای هدف مثل ایران تهدید میکند، این است که انواع مدلهای زبانی هوش مصنوعی در حال تبدیل شدن به مرجعیت فکری و تحلیلی وحتی جریانساز هستند، درحالیکه این یک اشتباه استراتژیک بزرگ است.
هوش مصنوعی به خصوص مدلهای زبانی یک سامانه تحلیلگر هستند، نه داور حقیقت. این مدلها نه به منابع اصیل دسترسی مستقیم دارند و نه توانایی تشخیص واقعیت از تحریف را. مکانیسم ارزیابی اطلاعات در هوش مصنوعی عمدتاً بر اساس الگوهای تکرار (Reinforcement Patterns)، محبوبیت محتوایی (Popularity Bias) یا توزیع گسترده (Multi-source Propagation) است؛ نه اصالت یا صحت علمی دادهها. به بیان سادهتر، هوش مصنوعی ممکن است یک تحلیل سطحی یا تحریفشده را، صرفاً به دلیل تکرار یا انتشار بالا، معتبر تلقی کند.
این پدیده که در علوم شناختی از آن به اثر حقیقتانگاری تکراری (Illusory Truth Effect) یاد میشود، میتواند زمینهساز گسترش اطلاعات نادرست با پوشش علمی باشد.
در چنین وضعیتی، اگر کاربران فضای مجازی هوش مصنوعی را جایگزین تحلیل انسانی و بررسی انتقادی کنند، در واقع اختیار روایت، تفسیر و جهتدهی فکری خود را به ماشینی سپردهاند که نه تنها به راحتی میتواند در راستای اهداف سازندگانش با تحریف واقعیت یا تغییر اولویتها ایفای نقش کند بلکه درک و تحلیل افراد را به سطحی ترین لایحه جنگ داده ها ببرد و خلع سلاح کند.
دعوت به بیداری دیجیتال
ما در آستانهی دورهای هستیم که باید هم از جان خود در میدان جنگ محافظت کنیم، و هم از فکر خود در میدان روایت. دادهها، هرچند بیصدا و بیرنگاند، اما میتوانند هم کُشنده باشند و هم گمراهکننده.
پس:
مراقب اطلاعاتی که منتشر میکنیم باشیم.
به هوش مصنوعی اعتماد کورکورانه نکنیم.
و هرگز مرجعیت تحلیلی خود را به الگوریتمها نسپاریم.
منابع:
1. Israeli Military’s AI System ‘Lavender’ Targeted 37,000 Palestinians for Assassination – +972 Magazine
2. Wired: “The Rise of AI-Powered Warfare” (Feb 2024) – Wired
3. Cathy O’Neil, Weapons of Math Destruction (Crown, 2016) – Weapons of Math Destruction
4. Luciano Floridi, “Artificial Intelligence as a Socio-Technical System” – Philosophy & Technology, 2023 – Philosophy & Technology
5. Lazer et al. “The Science of Fake News” – Science, 2018 – Science
6. UNESCO (2021): AI Ethics Recommendations – UNESCO
7. The Guardian: “How Big Tech is Handing Over Your Data to Governments” – The Guardian