نمایش جزییات خبر
۱۹ اردیبهشت ۱۴۰۳ ۰۷:۳۴

نگرانی درباره سوء استفاده از هوش مصنوعی در امور نظامی [-، اسکای نیوز عربی، 6 می 2024]

مسابقه جهانی برای استفاده نظامی از هوش مصنوعی پرسش هایی درباره عواقب درازمدت توسعه و تکثیر بدون مانع سلاح هایی که با هوش مصنوعی کار می کنند، ایجاد کرده است. برخی افراد معتقدند چنین سلاح هایی می تواند در نهایت، تلفات انسانی و تاثیر کلی جنگ را کاهش دهد ولی برخی دیگر درباره درگیری ناخواسته و کاهش کنترل انسان بر تصمیم گیری ها در خصوص ورود به درگیری مسلحانه، هشدار می دهند.
نگرانی درباره سوء استفاده از هوش مصنوعی در امور نظامی [-، اسکای نیوز عربی، 6 می 2024]

نگرانی درباره سوء استفاده از هوش مصنوعی در امور نظامی
1-همزمان با گسترش هوش مصنوعی و استفاده از آن در همه عرصه ها از جمله عرصه دفاعی و امنیتی و تسلیحاتی، استفاده از هوش مصنوعی در سامانه های تسلیحاتی یا آنچه که «ربات های قاتل» نامیده می شود، مورد توجه گسترده قرار گرفته و درخواست ها برای ساماندهی استفاده از هوش مصنوعی در بخش نظامی را افزایش داده است. تازه ترین درخواست در این زمینه اوایل این هفته از سوی اتریش مطرح شد که خواستار تلاشی جدید برای ساماندهی استفاده از هوش مصنوعی در ساخت سامانه های تسلیحاتی شد. 
2-با پیشرفت سریع فناوری هوش مصنوعی، سامانه های تسلیحاتی که توانایی کشتن بدون دخالت انسان را دارند، ظهور و حضور بیشتری پیدا کرده اند. این مسئله، چالش های اخلاقی و حقوقی ایجاد کرده است که اکثر کشورها معتقدند باید در سریع ترین زمان ممکن با آنها مقابله کرد. الکساندر شالنبرگ وزیر خارجه اتریش در کنفرانسی که در وین برگزار شد تاکید کرد نباید اجازه دهیم که این لحظه بدون اتخاذ تدابیری از دست برود. وی افزود، دست کم باید تضمین کنیم که اتخاذ تصمیم های سرنوشت ساز در این باره که چه کسی زنده بماند و چه کسی بمیرد، در دست انسان باقی بماند نه ماشین ها. 
3-شرکت کنندگان در کنفرانس وین خاطرنشان کردند زمان برای اتخاذ تدابیر به سرعت در حال سپری شدن است چرا که هم اکنون نیز هوش مصنوعی عملا در میدان نبرد مورد استفاده قرار می گیرد. دیپلمات ها می گویند پهپادهایی که در اوکراین استفاده می شوند به گونه ای طراحی شده اند که حتی وقتی  ارتباط آنها با کاربر قطع می شود، می توانند با کمک هوش مصنوعی مسیر خود را ادامه دهند. همچنین آمریکا از وجود گزارش هایی خبر داد مبنی بر این که ارتش اسرائیل برای کمک به تشخیص اهداف در غزه از هوش مصنوعی استفاده می کند. 
4-با آشکارتر شدن فواید و خطرات احتمالی استفاده از هوش مصنوعی در جنگ ها، کشورهای سراسر جهان تلاش برای توسعه هوش مصنوعی و استفاده نظامی از آن را افزایش داده اند. چین و ایالات متحده آمریکا و روسیه و شماری دیگر از قدرت های بزرگ، به شدت سرگرم تحقیق درباره هوش مصنوعی و توسعه آن برای استفاده نظامی هستند به طوری که وزارت دفاع آمریکا مرکز مشترک هوش مصنوعی () و آژانس تحقیقات دفاعی پیشرفته () را برای تسریع استفاده از هوش مصنوعی در عملیات خود تاسیس کرده است. چین نیز توسعه هوش مصنوعی را به اولویت ملی تبدیل کرده است و فعالانه به دنبال توسعه تسلیحات مستقل است. روسیه نیز عمدتا بر استفاده از هوش مصنوعی در زمینه امنیت سایبری و جنگ الکترونیک تمرکز دارد. این رقابت جهانی برای استفاده از هوش مصنوعی با اهداف نظامی، نگرانی هایی درباره احتمال بی ثبات شدن امنیت بین المللی ایجاد کرده است چرا که افزایش استفاده از هوش مصنوعی در بخش نظامی، خطر ارزیابی نادرست و درگیری ناخواسته را بیشتر می کند. 
5-در واکنش به نگرانی ها درباره استفاده از هوش مصنوعی در جنگ، درخواست هایی برای همکاری بین المللی و تعریف چارچوبی مستحکم برای کنترل توسعه و استفاده از هوش مصنوعی در بخش نظامی، مطرح شده است و سازمان هایی مثل سازمان ملل و سازمان های غیردولتی، خواستار توافق بر سر ضوابطی الزام آور شده اند که توسعه و استفاده از برخی سلاح هایی که با هوش مصنوعی کار می کنند به خصوص سلاح هایی که توانایی انتخاب اهداف و نابودی آن را بدون دخالت انسان دارند، ممنوع یا به شدت کنترل شده باشد. 
6-با این حال ثابت شده است که دستیابی به اتفاق نظر در جهان بر سر چنین دستور العملی، کاری دشوار است چرا که کشورها منافع متضادی دارند و از نظر سطح پیشرفت فناوری در سطوح مختلفی هستند. برخی کارشناسان معتقدند ممنوعیت کامل تولید و استفاده از سامانه های تسلیحاتی مستقل، غیرواقع بینانه است و تلاش ها باید بر تضمین کنترل هدفمند این تسلیحات توسط انسان و تعیین چارچوبی روشن برای توسعه و تکثیر این تسلیحات متمرکز باشد. 
7-مسابقه جهانی برای استفاده نظامی از هوش مصنوعی همچنین پرسش هایی درباره عواقب درازمدت توسعه و تکثیر بدون مانع سلاح هایی که با هوش مصنوعی کار می کنند، ایجاد کرده است. برخی افراد معتقدند چنین سلاح هایی می تواند در نهایت، تلفات انسانی و تاثیر کلی جنگ را کاهش دهد ولی برخی دیگر درباره درگیری ناخواسته و کاهش کنترل انسان بر تصمیم گیری ها در خصوص ورود به درگیری مسلحانه، هشدار می دهند. در نهایت، تصمیم گیری جمعی کشورها و سیاستگذاران و پژوهشگران و نهادهای جامعه مدنی می تواند ترسیم کننده آینده‌ی استفاده از هوش مصنوعی در جنگ باشد. 
اداره کل رسانه های خارجی
ترجمه: اکبر زارع زاده 
مخاوف من إساءة استخدام الذکاء الاصطناعی عسکریاً
l قبل 14 ساعة
سکای نیوز عربیة - أبوظبی

الذکاء الاصطناعی
الذکاء الاصطناعی
یثیر التطور المحتمل لدمج الذکاء الاصطناعی فی العملیات العسکریة وأنظمة التسلیح مخاوف واسعة.

ففی الوقت الذی تقدم فیه تطبیقات الذکاء الاصطناعی فرصاً واعدة فی سیاق دعم اتخاذ القرار والأمن السیبرانی والخدمات اللوجیستیة وإدارة سلاسل التورید، فإنها فی الوقت نفسه تعکس مجموعة من المشکلات المختلفة، بدءاً من قضایا الأمن والسلامة ووصولاً إلى المشکلات الأخلاقیة المرتبطة بالتحیز ، مروراً فی الوقت نفسه بإزکاء سباق التسلح الدولی.

دمج الذکاء الاصطناعی فی أنظمة الأسلحة أو ما یعرف بـ "الروبوتات القاتلة"، کان محل اهتمام واسع فی الآونة الأخیرة، ضمن مجموعة القضایا التی یثیرها هذا التطور الواسع للتطبیقات الذکیة، ودخولها فی المجالات کافة بما فی ذلک فی مجالات الدفاع والأمن والتسلیح، وبما عزز من دعوات تنظیم الاستخدام.

آخر تلک الدعوات أطلقتها النمسا، والتی دعت مطلع الأسبوع إلى بذل جهود جدیدة لتنظیم استخدام الذکاء الاصطناعی فی أنظمة الأسلحة الذی یمکن أن یؤدی لظهور ما یسمى "الروبوتات القاتلة"، وذلک خلال مؤتمر استضافته فیینا بهدف إحیاء المناقشات المتعثرة إلى حد کبیر حول تلک القضیة المثیرة للجدل.

أخبار ذات صلة
نصائح للتخطیط المالی
نصائح فعالة لزیادة الدخل.. استثمر وقتک ومواردک بشکل ذکی
متحدثة أنشئت بواسطة الذکاء الاصطناعی تدعى فیکتوریا شی
فیدیو لمتحدثة باسم خارجیة أوکرانیا مّولدة بالذکاء الاصطناعی
مع التقدم السریع فی تکنولوجیا الذکاء الاصطناعی، فإن أنظمة الأسلحة التی یمکنها القتل دون تدخل بشری تزداد ظهورا ووضوحا.
یثیر ذلک تحدیات أخلاقیة وقانونیة تقول معظم البلدان إنها تحتاج إلى التصدی لها فی أقرب وقت ممکن.
وزیر الخارجیة النمساوی ألکسندر شالنبرج، قال خلال المؤتمر الذی شارکت فیه منظمات غیر حکومیة ودولیة فضلا عن مبعوثین من 143 دولة: "لا یمکننا أن ندع هذه اللحظة تفوتنا دون اتخاذ إجراء. الآن هو الوقت المناسب للاتفاق على قواعد ومعاییر دولیة لضمان السیطرة البشریة".
تحت عنوان "الإنسانیة على مفترق الطرق.. أنظمة الأسلحة المستقلة وتحدیات التنظیم"، قال الوزیر: "علینا أن نضمن على الأقل أن القرارات المصیریة المتعلقة بمن یعیش ومن یموت تبقى فی ید البشر ولیس الآلات".
ویشار إلى أن سنوات من المناقشات فی الأمم المتحدة کانت قد مرت دون تحقیق نتائج ملموسة، وقال کثیر من المشارکین فی المؤتمر الذی استمر یومین فی العاصمة النمساویة إن الوقت لاتخاذ إجراءات ینفد بسرعة، بحسب ما أوردته رویترز.

یتم استخدام الذکاء الاصطناعی بالفعل فی ساحة المعرکة.
یقول دبلوماسیون إن الطائرات المسیرة فی أوکرانیا مصممة لمواصلة طریقها إلى هدفها حتى عندما یتم قطع الاتصال بینها وبین مشغلها باستخدام تقنیات التشویش.
وقالت الولایات المتحدة هذا الشهر إنها تدرس تقریرا إعلامیا یفید بأن الجیش الإسرائیلی یستخدم الذکاء الاصطناعی للمساعدة فی تحدید أهداف القصف فی غزة.
الدمج المحتمل للذکاء الاصطناعی

وفی هذا السیاق، خصَّ المستشار الأکادیمی فی جامعة سان خوسیه الحکومیة فی کالیفورنیا، أحمد بانافع، موقع "اقتصاد سکای نیوز عربیة"، ببحث حدیث أجراه حول "الدمج المحتمل للذکاء الاصطناعی فی العملیات العسکریة".

فی السنوات الأخیرة، عزز التقدم السریع فی الذکاء الاصطناعی الإثارة والخوف فی مختلف القطاعات، ولم یکن مجال الحرب استثناءً لذلک. على اعتبار أن الدمج المحتمل للذکاء الاصطناعی فی العملیات العسکریة یَعِد بقدرات غیر مسبوقة، ولکنه یثیر أیضاً مخاوف أخلاقیة واستراتیجیة عمیقة.

فبینما تتسابق الدول فی جمیع أنحاء العالم لتسخیر قوة الذکاء الاصطناعی، فإن الآثار المترتبة على مستقبل الحرب بعیدة المدى ومعقدة.

بحسب بانافع، یجادل أنصار الذکاء الاصطناعی فی الحرب بأن تکامله یمکن أن یحدث ثورة فی العملیات العسکریة، مما یؤدی إلى اتخاذ قرارات أکثر کفاءة وفعالیة، وتعزیز الوعی الظرفی، وتحسین الاستراتیجیات القتالیة.

ورصد ضمن بحثه بعض الفوائد الرئیسیة المحتملة لذلک الدمج، من بینها:

الأنظمة الذکیة ودعم القرار: یمکن لخوارزمیات الذکاء الاصطناعی معالجة کمیات هائلة من البیانات من مصادر متعددة، مثل التقاریر الاستخباراتیة وموجزات أجهزة الاستشعار والبیانات التاریخیة، لتوفیر تحلیل وتوصیات فی الوقت الفعلی للقادة البشریین. وهذا یمکن أن یسهل اتخاذ قرارات أکثر استنارة وفی الوقت المناسب، لا سیما فی المواقف القتالیة سریعة التطور.
أنظمة الأسلحة المستقلة (الروبوتات القاتلة): ربما یکون التطبیق الأکثر إثارة للجدل للذکاء الاصطناعی فی الحرب هو تطویر أنظمة الأسلحة المستقلة، والتی یشار إلیها غالبًا باسم "الروبوتات القاتلة". یمکن لهذه الأنظمة تحدید الأهداف وتتبعها والاشتباک معها دون تدخل بشری، مما یؤدی نظریًا إلى تحسین أوقات رد الفعل وتقلیل المخاطر التی یتعرض لها الجنود البشر.
الأمن السیبرانی والحرب الإلکترونیة: یمکن أن یلعب الذکاء الاصطناعی دورًا حاسمًا فی الأمن السیبرانی والحرب الإلکترونیة، واکتشاف التهدیدات السیبرانیة والاستجابة لها، وتحدید نقاط الضعف فی أنظمة العدو، وتعزیز حمایة البنیة التحتیة الحیویة وشبکات الاتصالات.
الخدمات اللوجستیة وإدارة سلسلة التورید: یمکن للأنظمة التی تعمل بالذکاء الاصطناعی تحسین حرکة القوات والمعدات والإمدادات، مما یؤدی إلى عملیات لوجستیة أکثر کفاءة وتقلیل الضغط على الموارد البشریة.
الاهتمامات الأخلاقیة والاستراتیجیة

وعلى الرغم من المزایا المحتملة، فإن دمج الذکاء الاصطناعی فی الحرب یثیر مخاوف أخلاقیة واستراتیجیة کبیرة یجب دراستها بعنایة، بحسب ما رصده البحث، على النحو التالی:

المساءلة والمسؤولیة: عندما تصبح أنظمة الذکاء الاصطناعی أکثر استقلالیة، تنشأ أسئلة حول من المسؤول فی نهایة المطاف عن أفعالها، لا سیما فی الحالات التی تحدث فیها خسائر فی صفوف المدنیین أو تحدث عواقب غیر مقصودة. تصبح هذه المشکلة أکثر تعقیدًا عندما یتم تصمیم أنظمة الذکاء الاصطناعی لاتخاذ القرارات دون إشراف بشری.
التحیز وعدم القدرة على التنبؤ: یتم تدریب خوارزمیات الذکاء الاصطناعی على البیانات، والتی یمکن أن تکون متحیزة أو غیر کاملة، مما قد یؤدی إلى نتائج متحیزة أو غیر متوقعة. وفی سیاق الحرب، قد تؤدی مثل هذه التحیزات إلى عواقب مدمرة، وقد یؤدی عدم القدرة على التنبؤ بأنظمة الذکاء الاصطناعی إلى تقویض الثقة والتخطیط الاستراتیجی.
الانتشار وسباق التسلح: تطویر أنظمة الأسلحة التی تعمل بالذکاء الاصطناعی یمکن أن یؤدی إلى سباق تسلح جدید، حیث تسعى الدول إلى الحصول على میزة تنافسیة. وقد یؤدی ذلک إلى زعزعة استقرار الأمن الإقلیمی والعالمی، وزیادة خطر الصراعات، وتحویل الموارد من مجالات أساسیة أخرى.
السیطرة البشریة والتحکم البشری الهادف: هناک جدل مستمر حول مستوى السیطرة البشریة التی ینبغی الحفاظ علیها على أنظمة الذکاء الاصطناعی فی الحرب. وبینما یجادل البعض بالحفاظ على سیطرة بشریة ذات معنى، یعتقد البعض الآخر بأن الاستقلالیة الکاملة ضروریة لأنظمة الذکاء الاصطناعی لتکون فعالة فی المواقف القتالیة.
الأطر القانونیة والأخلاقیة: قد تحتاج الأطر القانونیة والأخلاقیة الحالیة التی تحکم الحرب إلى التحدیث لتأخذ فی الاعتبار التحدیات الفریدة التی تفرضها أنظمة الذکاء الاصطناعی. ویجب النظر بعنایة فی قضایا مثل الامتثال للقانون الإنسانی الدولی، ومبادئ التمییز والتناسب، وحمایة السکان المدنیین.
أخبار ذات صلة
نقص فی مخزون البن فی مصر
کیف تمکن الذکاء الاصطناعی من ابتکار قهوة بنکهة غیر مسبوقة؟
متجر آبل فی الصین
أبل.. الأذواق والذکاء الاصطناعی یهددان العملاق الأمیرکی
سباق التسلح العالمی بالذکاء الاصطناعی

ومع تزاید وضوح الفوائد والمخاطر المحتملة للذکاء الاصطناعی فی الحروب، تکثف الدول فی جمیع أنحاء العالم جهودها لتطویر تقنیات الذکاء الاصطناعی ودمجها فی قدراتها العسکریة، وهو ما یشیر إلیه المستشار الأکادیمی فی جامعة سان خوسیه الحکومیة فی کالیفورنیا، فی معرض حدیثه مع موقع "اقتصاد سکای نیوز عربیة"، موضحاً أن سباق التسلح العالمی للذکاء الاصطناعی له آثار کبیرة على مستقبل الحرب والأمن الدولی.

ویضیف: "تستثمر الولایات المتحدة والصین وروسیا وعدید من القوى الکبرى الأخرى بکثافة فی أبحاث الذکاء الاصطناعی وتطویره للتطبیقات العسکریة. أنشأت وزارة الدفاع الأمیرکیة مبادرات مختلفة، مثل مرکز الذکاء الاصطناعی المشترک (JAIC) ووکالة مشاریع الأبحاث الدفاعیة المتقدمة (DARPA)، لتسریع دمج الذکاء الاصطناعی فی عملیاتها".

ومن ناحیة أخرى، جعلت الصین من الذکاء الاصطناعی أولویة وطنیة وتسعى بنشاط إلى تطویر أنظمة الأسلحة المستقلة، فضلاً عن جمع المعلومات الاستخباریة المدعومة بالذکاء الاصطناعی وقدرات دعم القرار. وقد عبرت روسیا أیضًا عن عزمها الاستفادة من الذکاء الاصطناعی فی الحرب، مع الترکیز بشکل خاص على الأمن السیبرانی والحرب الإلکترونیة.

أثارت هذه المنافسة العالمیة لتسخیر قوة الذکاء الاصطناعی للأغراض العسکریة مخاوف بشأن احتمال زعزعة استقرار المشهد الأمنی الدولی. وبینما تتسابق الدول للحصول على میزة تکنولوجیة، یزداد خطر سوء التقدیر والتصعید غیر المقصود، مما قد یؤدی إلى زیادة التوترات والصراعات.

النقاش حول التنظیم والتعاون الدولی

ویشیر بانافع إلى أنه استجابةً للمخاوف المحیطة بدمج الذکاء الاصطناعی فی الحرب، کانت هناک دعوات للتعاون الدولی وإنشاء أطر تنظیمیة قویة للتحکم فی تطویر واستخدام تقنیات الذکاء الاصطناعی فی السیاقات العسکریة. وقد دعت منظمات مثل الأمم المتحدة ومختلف المنظمات غیر الحکومیة إلى اعتماد ضوابط ملزمة قانونًا من شأنها أن تحظر أو تنظم بشکل صارم تطویر واستخدام بعض أنظمة الأسلحة التی تعمل بالذکاء الاصطناعی، لا سیما تلک القادرة على اختیار الأهداف والاشتباک معها دون تدخل بشری ذی معنى.

ومع ذلک، فقد ثبت أن تحقیق الإجماع العالمی على مثل هذه اللوائح أمر صعب، ذلک أن الدول لدیها مصالح متباینة ومستویات متفاوتة من التقدم التکنولوجی. ویرى البعض أن الحظر الکامل على أنظمة الأسلحة المستقلة أمر غیر واقعی، وأن الجهود یجب أن ترکز بدلاً من ذلک على ضمان السیطرة البشریة الهادفة ووضع مبادئ توجیهیة واضحة لتطویرها ونشرها.

بالإضافة إلى ذلک، أثیرت مخاوف بشأن إمکانیة استخدام التقنیات ذات الاستخدام المزدوج، حیث یمکن إعادة استخدام أنظمة الذکاء الاصطناعی التی تم تطویرها للأغراض المدنیة للتطبیقات العسکریة، مما یزید من تعقید الجهود التنظیمیة.

وبحسب المستشار الأکادیمی فی جامعة سان خوسیه الحکومیة فی کالیفورنیا، فإنه مع استمرار تطور دمج الذکاء الاصطناعی فی الحرب، فمن الواضح أن التداعیات ستکون بعیدة المدى وعمیقة. ولا یمکن تجاهل الفوائد المحتملة لتعزیز عملیة صنع القرار، وتحسین الوعی الظرفی، وزیادة کفاءة العملیات.

وأضاف: "ومع ذلک، فإن المخاوف الأخلاقیة والاستراتیجیة المحیطة بالمساءلة، والتحیز، والانتشار، والأطر القانونیة یجب معالجتها من خلال التعاون الدولی القوی والأطر التنظیمیة".

ویثیر سباق التسلح العالمی للذکاء الاصطناعی أیضًا تساؤلات حول العواقب طویلة الأجل المترتبة على التطویر ونشر أنظمة الأسلحة التی تعمل بالذکاء الاصطناعی دون رادع. وبینما یجادل البعض بأن مثل هذه الأنظمة یمکن أن تقلل فی نهایة المطاف من الخسائر البشریة والتأثیر العام للحرب، یحذر آخرون من احتمال التصعید غیر المقصود وتآکل السیطرة البشریة على قرار الانخراط فی نزاع مسلح.

وقال بانافع إنه فی نهایة المطاف، سیتم تشکیل مستقبل الذکاء الاصطناعی والحرب من خلال الإجراءات الجماعیة للدول وصانعی السیاسات والباحثین ومنظمات المجتمع المدنی. ومن الضروری اتباع نهج متوازن، یسخر الإمکانات التحویلیة للذکاء الاصطناعی مع ضمان التزام تطویره واستخدامه فی الحرب بالمبادئ الأخلاقیة والقانون الدولی والحفاظ على الکرامة الإنسانیة.

"وبینما یتصارع العالم مع تعقیدات هذه القضیة، سیکون الحوار المستمر والشفافیة والالتزام بالابتکار المسؤول أمرًا حاسمًا فی التعامل مع العلاقة المعقدة بین الذکاء الاصطناعی والحرب، وفی تشکیل مستقبل تعمل فیه التطورات التکنولوجیة على تعزیز الأمن والاستقرار العالمیین"، وفق بانافع.

أخبار ذات صلة
تقاریر: زیادة أعداد السلاح النووی والصین تعزز ترسانتها
مسؤول أمیرکی یدعو بکین وموسکو لسیطرة البشر على السلاح النووی
مایکروسوفت
"مایکروسوفت" تنشئ بنیة تحتیة للذکاء الاصطناعی فی تایلاند
إجراءات مطلوبة

وکانت رئیسة اللجنة الدولیة للصلیب الأحمر، میریانا سبولجاریک، قد ذکرت خلال حلقة نقاشیة فی المؤتمر الذی انعقد أخیراً فی النمسا إنه "من المهم للغایة أن نتخذ إجراءات على وجه السرعة"، مضیفة:  "ما نشهده الیوم فی سیاقات العنف المختلفة هو إخفاقات أخلاقیة أمام المجتمع الدولی. ولا نرید أن نرى مثل هذه الإخفاقات تتفاقم من خلال تحویل مسؤولیة العنف والسیطرة علیه إلى الآلات والخوارزمیات".

وبحسب جان تالین وهو مطور برمجیات ومستثمر فی مجال التکنولوجیا: "لقد رأینا بالفعل أن الذکاء الاصطناعی یرتکب أخطاء سواء کبیرة أو صغیرة، بدءا من الإخفاق فی التمییز بین کرة القدم ورأس حَکَم أصلع، إلى وفیات المارة على الطرق بسبب السیارات ذاتیة القیادة غیر القادرة على التعرف على الأشخاص الذین یسیرون خارج الممرات المخصصة لهم". وشدد على أنه "یجب أن نکون حذرین للغایة بشأن الاعتماد على دقة هذه الأنظمة، سواء فی القطاع العسکری أو المدنی".
اشتراک در
اظهار نظر
امتیاز را وارد کنید
نام را وارد کنید
ایمیل را وارد کنید
تعداد کاراکتر باقیمانده: 500
نظر خود را وارد کنید