هوش مصنوعی “لاوندر” و واتس اپ؛ سلاحی برای نسل کشی در غزه
به گزارش خبرنگار اجتماعی خبرگزاری تسنیم، درگیریهای نظامی میان حماس و اسرائیل تنها به حملات فیزیکی محدود نمیشود. این جنگ اکنون وارد عرصه جدیدی شده است؛ جایی که دادههای کاربران در پلتفرمهای اجتماعی و هوش مصنوعی به ابزارهای نظامی برای هدفگیری غیرنظامیان تبدیل شدهاند. در این میان “واتساپ” بهعنوان یکی از محصولات شرکت متا، در
به گزارش خبرنگار اجتماعی خبرگزاری تسنیم، درگیریهای نظامی میان حماس و اسرائیل تنها به حملات فیزیکی محدود نمیشود. این جنگ اکنون وارد عرصه جدیدی شده است؛ جایی که دادههای کاربران در پلتفرمهای اجتماعی و هوش مصنوعی به ابزارهای نظامی برای هدفگیری غیرنظامیان تبدیل شدهاند. در این میان “واتساپ” بهعنوان یکی از محصولات شرکت متا، در کانون اتهامات سنگینی قرار گرفته است. اتهاماتی که از همدستی با رژیم صهیونیستی در کشتار ساکنان غزه و استفاده از دادههای کاربران بهعنوان ورودی سیستمهای هوش مصنوعی پرده برمیدارد.
واتساپ و هوش مصنوعی در خدمت اهداف نظامی
چندی پیش بود که پائول بیگار (Paul Biggar) مهندس ایرلندی افشا کرد که رژیم صهیونیستی با کمک سیستم هوش مصنوعی «لاوندر» (Lavender) و دادههای استخراجشده از کاربران واتساپ، اهداف بمباران در غزه را شناسایی میکند. این سیستم با بررسی اطلاعات موجود در گروههای واتساپ و تحلیل دادههای شخصی کاربران، مکانهای تجمع ساکنان غزه را مشخص کرده و بهعنوان اهداف بالقوه بمباران معرفی میکند.
این افشاگری، ادعای متا مبنی بر «امنیت اطلاعات» و «رمزگذاری سرتاسری» در واتساپ را زیر سوال برده است. در حالی که این پلتفرم بارها از حریم خصوصی کاربران دفاع کرده، اکنون متهم است که دادههای کاربران فلسطینی را در اختیار رژیم صهیونیستی قرار داده تا بهوسیله هوش مصنوعی، نسلکشی غیرنظامیان در غزه را تسهیل کند.
بیگار در این خصوص گفت: رژیم صهیونیستی از دادههای کاربران فلسطینی بهعنوان ورودی سیستم هوش مصنوعی لَوِندر استفاده کرده است و بنابراین شرکت متا، مالک واتساپ، شریک کشتار غیرنظامیان و خانوادههای ساکن غزه است. این نشان میدهد که متا به تعهد خود مبنی بر رعایت حقوق بشر پایبند نیست.
این وبلاگنویس ایرلندی همچنین به «روابط نزدیک» سه مقام ارشد متا از جمله گای روزن (Guy Rosen) مدیر ارشد امنیت اطلاعات متا، مارک زاکربرگ، مؤسس و مدیرعامل متا و شِریل سَندبرگ (Sheryl Sandberg)، مدیرعامل سابق و عضو فعلی هیئت مدیره متا، با اسرائیل اشاره کرد.
تصویرسازی مغرضانه: الگوریتمها هم علیه فلسطینیان به صف شدند
علاوه بر اتهام نقض حریم خصوصی کاربران، گزارشهایی که بعد از عملیات طوفان الاقصی و حملات وحشیانه رژیم صهیونیستی به غزه منتشر شد نشان میدهد که تصویرساز مبتنی بر هوش مصنوعی واتساپ نیز در نمایش محتوا، سوگیری آشکاری علیه فلسطینیان دارد. طبق گزارشهای مستقل تأییدشده توسط روزنامه گاردین، جستوجوی عباراتی مانند «فلسطینی» یا «پسر مسلمان فلسطینی» تصاویری از افراد مسلح یا کودکانی با اسلحه به دست نشان میدهد. این در حالی است که جستوجوی مشابه برای عباراتی مانند «پسر اسرائیلی» یا «نیروهای نظامی اسرائیل» تصاویری مثبت و بدون نمایش سلاح ارائه میکند.
این روند در حالی رخ میدهد که سیاستهای محتوایی متا، همواره با انتقاد فعالان حقوق بشر و روزنامهنگاران مواجه بوده است. سانسور محتوای حامی فلسطین و نمایش مغرضانه تصاویر، ابزاری برای تضعیف روایتهای فلسطینی و تقویت تصویری مثبت از اسرائیل به شمار میرود.
هوش مصنوعی «لاوندر»؛ سلاحی برای نسلکشی
سیستم هوش مصنوعی لاوندر بهعنوان یک ابزار نظامی، براساس دادههای جمعآوریشده از گروهها و کاربران واتساپ عمل میکند. این فناوری، اطلاعات کاربران را تحلیل کرده و مکانهایی را که بیشترین تراکم جمعیتی دارند، برای حملات موشکی و هوایی شناسایی میکند. گزارشها نشان میدهند که این سیستم بهطور خاص از دادههای فلسطینیان برای افزایش دقت حملات علیه ساکنان غزه استفاده کرده است.
از آغاز حملات رژیم صهیونیستی در اکتبر 2023 تاکنون، بیش از 45 هزار فلسطینی کشته شدهاند که بخش بزرگی از این قربانیان را زنان و کودکان تشکیل میدهند. افشای ارتباط میان واتساپ و سیستم هوش مصنوعی لاوندر، نگرانیهای جدی درباره نقش شرکتهای فناوری در این کشتار به همراه داشته است.
نقض حریم خصوصی و همدستی در جنایتهای رژیم صهیونیستی
استفاده از دادههای واتساپ برای اهداف نظامی، بار دیگر ماهیت خطرناک پلتفرمهای اجتماعی در دوران جنگ را آشکار میکند. شرکتی که ادعای رمزگذاری سرتاسری و امنیت اطلاعات کاربران را مطرح میکند، اکنون به همدستی در نقض حقوق بشر و استفاده از اطلاعات برای نسلکشی متهم شده است.
این موضوع نهتنها اعتبار متا را زیر سوال میبرد، بلکه به اهمیت وجود قوانین سختگیرانه برای نظارت بر عملکرد پلتفرمهای فناوری تأکید میکند. پلتفرمهایی مانند واتساپ و سیستمهای هوش مصنوعی به سلاحهایی پنهان در جنگهای مدرن تبدیل شدهاند. از سانسور محتوا و تصویرسازی مغرضانه گرفته تا نقض حریم خصوصی و همدستی در حملات نظامی، این پلتفرمها نقشی کلیدی در تشدید بحران انسانی ایفا میکنند.
از این رو ضروری است که نهادهای بینالمللی، با وضع قوانین و نظارتهای جدیتر، پلتفرمهای فناوری را به پاسخگویی وادار کنند تا از سوءاستفاده از دادههای کاربران برای اهداف نظامی و نقض حقوق بشر جلوگیری شود. در غیر این صورت، دنیای دیجیتال به میدان جنگی خطرناکتر از گذشته تبدیل خواهد شد!
انتهای پیام/