اسلایدریادداشت

داده‌ها می‌کشند؛ از جنگ‌های هوشمند تا مرجعیت فکری مصنوعی

یادداشت: ملیحه رنگ آمیز طوسی

در جهان دیجیتال‌محور امروز، داده‌ها فقط ابزار تحلیل و تصمیم‌گیری نیستند؛ گزارش‌ها حاکی ازین است که این ابزار محبوب با کمک شرکت های بزرگ و مشهور فناوری به یک سلاح قدرتمند کشتار جمعی تبدیل شده است. در واقع با ظهور هوش مصنوعی در حوزه‌های امنیتی و نظامی، ما با شکلی جدید از خشونت ساختاری مواجهیم که زیر پوست فناوری جریان دارد: نسل‌کشی داده‌محور (Data-driven Genocide).

بر اساس گزارش‌ها، ارتش اسرائیل از سامانه‌ای به نام Lavender استفاده کرده است؛ یک پلتفرم مبتنی بر هوش مصنوعی که با تحلیل داده‌های بیومتریک، مکانی، ارتباطات دیجیتال و الگوهای رفتاری، هزاران فلسطینی را شناسایی و به‌عنوان “هدف مشروع” معرفی می‌کند. این سیستم، در کمتر از چند ثانیه و بدون مداخله انسانی، تصمیم می‌گیرد که چه کسی زنده بماند و چه کسی کشته شود.

یکی از فناوری‌هایی که در این زمینه به کار می‌رود، فناوری پدر کجاست (Where’s Father) است که سیستم ردیابی جغرافیایی اهداف را با دقت بالایی انجام می‌دهد. این سیستم به‌شکلی طراحی شده که پیش از حمله، می‌تواند اهداف را تا منزل‌شان تعقیب کند و مسیرهای پیشرفته‌ای را برای عملیات‌های نظامی طراحی نماید. این دو فناوری، Lavender و پدر کجاست، اجزای مهم سیستم «زنجیره کشتار» را تشکیل می‌دهند که ارتش اشغالگر برای شناسایی و هدف‌گذاری افراد از آن استفاده می‌کند.

در همین راستا، شرکت‌های مایکروسافت، گوگل، و متا (که شامل اینستاگرام، فیس‌بوک و واتساپ می‌شود) از هوش مصنوعی برای جمع‌آوری و تحلیل داده‌های حساس از کاربران استفاده می‌کنند. این داده‌ها شامل اطلاعات مکانی، شبکه ارتباطات آنلاین و حتی الگوهای رفتاری کاربران می‌شود. این شرکت‌ها اطلاعات کاربران را از طریق سرویس‌های مختلف جمع‌آوری کرده و در اختیار دولت‌ها و نهادهای امنیتی از جمله رژیم صهیونیستی و ارتش آمریکا قرار می‌دهند تا از آن برای عملیات‌های امنیتی و نظامی، مثل ترور شخصیت ها و کشتار جمعی، بهره‌برداری شود.

نمونه دیگری از دسترسی به داده‌ها از طریق پلتفرم‌های اجتماعی، شبیه به چالش استودیو گیبلی (Ghibli Studio Challenge) است که در آن مردم به‌طور رایگان اطلاعات بیومتریک و جغرافیای خود را از طریق تصاویر به اشتراک می‌گذارند. این اطلاعات می‌توانند به راحتی توسط سامانه‌های هوش مصنوعی برای هدف‌گذاری و جمع‌آوری داده‌های مربوط به رفتار کاربران استفاده شوند.

اما فاجعه دیگری که به صورت کاملا خزنده و زیر پوستی دنیای نخبگان و کاربران تاثیرگذار و صاحب تحلیل را به خصوص در کشورهای هدف مثل ایران تهدید میکند، این است که انواع مدل‌های زبانی هوش مصنوعی در حال تبدیل شدن به مرجعیت فکری و تحلیلی وحتی جریان‌ساز هستند، درحالیکه این یک اشتباه استراتژیک بزرگ است.

هوش مصنوعی به خصوص مدل‌های زبانی یک سامانه تحلیل‌گر هستند، نه داور حقیقت. این مدل‌ها نه به منابع اصیل دسترسی مستقیم دارند و نه توانایی تشخیص واقعیت از تحریف را. مکانیسم ارزیابی اطلاعات در هوش مصنوعی عمدتاً بر اساس الگوهای تکرار (Reinforcement Patterns)، محبوبیت محتوایی (Popularity Bias) یا توزیع گسترده (Multi-source Propagation) است؛ نه اصالت یا صحت علمی داده‌ها. به بیان ساده‌تر، هوش مصنوعی ممکن است یک تحلیل سطحی یا تحریف‌شده را، صرفاً به دلیل تکرار یا انتشار بالا، معتبر تلقی کند.
این پدیده که در علوم شناختی از آن به اثر حقیقت‌انگاری تکراری (Illusory Truth Effect) یاد می‌شود، می‌تواند زمینه‌ساز گسترش اطلاعات نادرست با پوشش علمی باشد.

در چنین وضعیتی، اگر کاربران فضای مجازی هوش مصنوعی را جایگزین تحلیل انسانی و بررسی انتقادی کنند، در واقع اختیار روایت، تفسیر و جهت‌دهی فکری خود را به ماشینی  سپرده‌اند که نه تنها به راحتی می‌تواند در راستای اهداف سازندگانش با تحریف واقعیت یا تغییر اولویت‌ها ایفای نقش کند بلکه درک و تحلیل افراد را به سطحی ترین لایحه جنگ داده ها ببرد و خلع سلاح کند.

دعوت به بیداری دیجیتال

ما در آستانه‌ی دوره‌ای هستیم که باید هم از جان خود در میدان جنگ محافظت کنیم، و هم از فکر خود در میدان روایت. داده‌ها، هرچند بی‌صدا و بی‌رنگ‌اند، اما می‌توانند هم کُشنده باشند و هم گمراه‌کننده.

پس:

مراقب اطلاعاتی که منتشر می‌کنیم باشیم.

به هوش مصنوعی اعتماد کورکورانه نکنیم.

و هرگز مرجعیت تحلیلی خود را به الگوریتم‌ها نسپاریم.

منابع:

1. Israeli Military’s AI System ‘Lavender’ Targeted 37,000 Palestinians for Assassination – +972 Magazine

2. Wired: “The Rise of AI-Powered Warfare” (Feb 2024) – Wired

3. Cathy O’Neil, Weapons of Math Destruction (Crown, 2016) – Weapons of Math Destruction

4. Luciano Floridi, “Artificial Intelligence as a Socio-Technical System” – Philosophy & Technology, 2023 – Philosophy & Technology

5. Lazer et al. “The Science of Fake News” – Science, 2018 – Science

6. UNESCO (2021): AI Ethics Recommendations – UNESCO

7. The Guardian: “How Big Tech is Handing Over Your Data to Governments” – The Guardian

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا
Translate »

Adblock رو غیر فعال کنید

لطفا برنامه یا افزونه بلاک تبلیغات خود را غیر فعال کنید سپس رفرش کنید