د ماشین وژونکي روح دوام لري. ولسمشر پوتین په څه باور لري؟
د تکنالوژۍ

د ماشین وژونکي روح دوام لري. ولسمشر پوتین په څه باور لري؟

د پوځي روبوټونو پلويان (1) استدلال کوي چې اتومات وسلې د انسان د ژوند د ساتنې لپاره نور انتخابونه وړاندې کوي. ماشینونه کولی شي د سرتیرو په پرتله دښمن ته نږدې شي، او په سمه توګه د ګواښ ارزونه وکړي. او احساسات ځینې وختونه د سمې پریکړې کولو وړتیا فلج کوي.

د وژونکي روبوټ کارولو ډیری مدافعین په کلکه باور لري چې دوی به جنګونه لږ خونړي کړي ځکه چې لږ سرتیري به مړه شي. دوی یادونه کوي چې روبوټونه، پداسې حال کې چې د رحم احساس نه کوي، د منفي انساني احساساتو لکه ویره، غوسه او غچ څخه معاف دي، چې ډیری وختونه د جنګي جرمونو لامل کیږي.

د بشري حقونو فعالین هم دا استدلال کاروي چې پوځ په تیره نیمه پیړۍ کې د ملکي تلفاتو په کچه کې د پام وړ کمښت لامل شوی، او د اردو روبوټ کولو میکانیزم ته اجازه ورکوي چې د جګړې قوانین په کلکه پلي کړي. دوی ادعا کوي چې ماشینونه به اخلاقي شي کله چې دوی په سافټویر سمبال وي چې دوی به د جګړې قوانینو اطاعت کولو ته اړ کړي.

البته، یو لوی شمیر خلک، په شمول د ډیرو مشهورو په ګډون، دا نظر د کلونو لپاره نه شریکوي. د ۲۰۱۳ کال په اپریل کې د (۲) تر شعار لاندې یو نړیوال کمپاین پیل شو. د دې چوکاټ دننه، غیر دولتي سازمانونه د خپلواکو وسلو په کارولو باندې د بشپړ بندیز غوښتنه کوي. د ډیری هیوادونو متخصصین لومړی د 2014 په می کې په جینوا کې د بې وسلې کولو په اړه د ملګرو ملتونو په کنفرانس کې د دې موضوع په اړه بحث کولو لپاره ناست وو. یو راپور چې څو میاشتې وروسته د بشري حقونو د څار سازمان او د هارورډ پوهنتون ساینس پوهانو لخوا خپور شو وویل چې خودمختاري به خورا خطرناک وي - دوی خپل هدفونه غوره کړي او خلک وژني. په ورته وخت کې، دا روښانه نده چې څوک باید حساب ورکوونکي وي.

2. د عمل د یوې برخې په توګه مظاهره "وژونکي روبوټونه ودروئ"

د کوچني ډرونونو ډله څه کولی شي

د وژونکي روبوټونو (ROU) شاوخوا شخړې له کلونو راهیسې روانې دي او له مینځه نه ځي. پدې وروستیو میاشتو کې د نظامي روبوټونو د مخنیوي لپاره نوې هڅې او د دې ډول نوي پروژو راپورونو څپې راوړي ، چې ځینې یې حتی په ریښتیني جنګي شرایطو کې ازمول شوي.

د نومبر په 2017 کې، یوه ویډیو ښودل د کوچنیو بې پیلوټه الوتکو وژونکې ډله .، په ډارونکي عمل کې. لیدونکو ولیدل چې موږ نور د درنو جنګي ماشینونو، ټانکونو یا توغندیو ته اړتیا نه لرو چې د ښکاریانو لخوا په ډله ایزه توګه او د ماشین ټوپکونو سره ووژني. په برکلي کې د مصنوعي استخباراتو پروفیسور سټوارټ رسیل وايي:

-

تېر پسرلی پنځوس پروفیسوران د نړۍ مخکښو پوهنتونونو د کوریا د پرمختللي ساینس او ​​​​ټیکنالوژۍ انسټیټیوټ (KAIST) او د هغې ملګري هانوا سیسټمونو سره یو اپیل لاسلیک کړ. دوی اعلان وکړ چې دوی به د پوهنتون سره همکاري ونه کړي او د KAIST میلمنو کوربه توب وکړي. دلیل د "خپلواکه وسلو" جوړول وو چې د دواړو ادارو لخوا ترسره شوي. KAIST د رسنیو راپورونه رد کړل.

لږ وروسته په امریکا کې د 3 څخه ډیر د ګوګل کارمندان د پوځ لپاره د شرکت د کار پر ضد احتجاج وکړ. دوی اندیښمن وو چې ګوګل د ماون په نوم د یوې حکومتي پروژې سره ملګرتیا کوي چې هدف یې د نظامي ډرون ویډیوګانو کې د شیانو او مخونو پیژندلو لپاره AI کارول دي. د شرکت مدیریت وايي چې د ماون هدف د خلکو ژوند ژغورل او له ستړيا کار څخه د خلکو ژغورل دي ، نه د تیري. مظاهره کوونکي قانع نه شول.

د جګړې بله برخه اعلامیه وه د مصنوعي استخباراتو ماهرینپه شمول د ګوګل په پروژه کار کوي او ایلونا مسکا. دوی ژمنه کوي چې روبوټ جوړ نه کړي. دوی پر حکومتونو هم غږ کوي چې د دغو وسلو د تنظیم او محدودولو لپاره هڅې ګړندۍ کړي.

بیان وايي، په یوه برخه کې، "د انسان د ژوند کولو پریکړه باید هیڅکله د ماشین په واسطه ونه نیول شي." که څه هم د نړۍ پوځونه په ډیرو اتوماتیک وسایلو سمبال دي، ځینې وختونه د لوړې کچې خپلواکۍ سره، ډیری ماهرین ویره لري چې په راتلونکي کې دا ټیکنالوژي په بشپړه توګه خپلواکه شي، د انسان چلونکي او قوماندان د ښکیلتیا پرته د وژنې اجازه ورکوي.

متخصصین دا خبرداری هم ورکوي چې د اور وژنې خودمختار ماشینونه د "اټومي، کیمیاوي او بیولوژیکي وسلو" په پرتله خورا خطرناک کیدی شي ځکه چې دوی کولی شي په اسانۍ سره له کنټرول څخه بهر شي. په مجموع کې، د تیر کال په جولای کې، د ژوند د راتلونکي انسټیټیوټ (FGI) تر څارنې لاندې یو لیک د 170 سازمانونو او 2464 اشخاصو لخوا لاسلیک شو. د 2019 په لومړیو میاشتو کې، د FLI پورې تړلي طبي ساینس پوهانو یوې ډلې بیا د نوي لیک غوښتنه وکړه چې د مصنوعي استخباراتو (AI) کنټرول شوي وسلو پراختیا منع کوي.

د تیر کال د اګست په میاشت کې د ملګرو ملتونو غونډه په ګنیو کې د نظامي "وژونکي روبوټونو" احتمالي قانوني مقرراتو په اړه په بریالیتوب پای ته ورسیده ... ماشینونه. د متحده ایالاتو، روسیې او اسراییلو په ګډون د هیوادونو یوې ډلې په دې وسلو باندې د نړیوال بندیز د معرفي کولو په اړه نور کار بند کړ (د ځانګړو دودیزو وسلو د کارولو د منع یا محدودیت کنوانسیون مسوده، CCW). دا هیڅ تصادف نه دی چې دا هیوادونه د خپلواکو او روبوټیک وسلو پرمختللي سیسټمونو باندې د دوی د کار لپاره پیژندل شوي.

روسیه په جنګي روبوټونو تمرکز کوي

ولسمشر ولادیمیر پوتین اکثرا د نظامي AI سیسټمونو او جنګي روبوټونو په اړه ویل کیږي:

-.

د خپلواکو وسلو د پراختیا په اړه په ښکاره خبرې کوي. د دې هېواد د وسله والو ځواکونو لوی درستیز جنرال والیري ګیراسیموف په دې وروستیو کې پوځي خبري اژانس انټرفاکس-AVN ته ویلي چې د روباټونو کارول به د راتلونکو جګړو له مهمو ځانګړتیاوو څخه وي. هغه زیاته کړه چې روسیه هڅه کوي د جګړې ډګر په بشپړ ډول اتومات کړئ. ورته څرګندونې د لومړي وزیر مرستیال دیمیتري روګوزین او د دفاع وزیر سرګي شویګو لخوا شوي. د دفاع او امنیت د فدراسیون د کمیټې مشر ویکتور بونداروف وویل، روسیه د پرمختګ لپاره هڅې کوي د روجو ټیکنالوژيدا به د ډرون شبکو ته اجازه ورکړي چې د واحد واحد په توګه کار وکړي.

دا د حیرانتیا خبره نده که موږ په یاد ولرو چې لومړی ټیلینګونه په 30s کې په شوروي اتحاد کې رامینځته شوي. دوی د دویمې نړیوالې جګړې په پیل کې کارول شوي. نن روسیه هم جوړوي ټانک روباټونه ډیر او ډیر خپلواکه شي.

د پوتین دولت په دې وروستیو کې سوریې ته خپل سرتیري واستول بې پيلوټه جنګي موټر Uran-9 (۳). وسیلې د ځمکني کنټرول پوائنټونو سره اړیکه له لاسه ورکړه، د تعلیق سیسټم سره ستونزې درلودې، او وسلې یې په سمه توګه کار نه کاوه او په حرکت کې هدفونه یې نه وو په نښه کول. دا خورا جدي نه ښکاري، مګر ډیری یې د سوریې مسح یو ښه جنګي ازموینه ګڼي چې روسیې ته به اجازه ورکړي چې ماشین ښه کړي.

Roscosmos د روان کال تر اګست میاشتې پورې نړیوال فضایي سټیشن ته د دوو روبوټونو د استولو لومړنی پلان تصویب کړ. فیډر (۴) په بې کفایته اتحادیه کې. د بار په څیر نه، مګر. لکه څنګه چې په فلم روبوکوپ کې، فیډور وسلې چلوي او د شوټینګ تمرینونو په جریان کې وژونکي نښه ښیي.

پوښتنه دا ده چې ولې په فضا کې یو روبوټ وسله وال وي؟ داسې شکونه شتون لري چې مسله یوازې په ځمکنیو غوښتنلیکونو کې نه ده. په عین حال کې، په ځمکه کې، د روسیې د وسلو جوړونکي کلاشینکوف یو لید وښود روبوټ ایګوریککوم چې، که څه هم دا د ډیری خندا لامل شوی، دا په ګوته کوي چې شرکت په جدي توګه په خپلواکه جنګي وسایطو کار کوي. د 2018 په جولای کې، کلاشینکوف اعلان وکړ چې هغه یوه وسله جوړوي چې هغه د "ډزو یا نه ډزې کولو" پریکړې کولو لپاره کاروي.

پدې معلوماتو کې باید داسې راپورونه اضافه شي چې د روسیې ټوپکمار دیګتیاریف یو کوچنی پرمختګ کړی خودمختاره ټانک Nerekht کوم چې کولی شي په خاموشۍ سره د خپل هدف په لور حرکت وکړي او بیا په قوي ځواک سره چاودنه وکړي ترڅو نورې یا ټولې ودانۍ ویجاړې کړي. همدارنګه ټانک T14 اردو د روسیې د وسله والو ځواکونو ویاړ، د ممکنه ریموټ کنټرول او بې پیلوټه موټر چلولو لپاره ډیزاین شوی. سپوتنیک ادعا کوي چې د روسیې نظامي انجینران هڅه کوي چې T-14 په بشپړ ډول خپلواکه زغره وال موټر جوړ کړي.

د اعتراض لارښود

د امریکا پوځ پخپله د خپلو وسلو د خودمختاری په کچه یو روښانه حد وضع کړی دی. په 2012 کې، د متحده ایالاتو د دفاع وزارت 3000.09 لارښود خپور کړ، چې په کې راغلي چې انسانان باید د وسله والو روبوټونو په کړنو د اعتراض حق ولري. (که څه هم ځینې استثناوې شتون لري). دا لارښود په عمل کې پاتې دی. د پنټاګون اوسنۍ پالیسي دا ده چې د وسلو د کارولو پریکړه کونکی باید تل یو شخص وي، او دا ډول قضاوت باید وي. د جګړې له قوانینو سره سمون خوري.

که څه هم امریکایان د لسیزو راهیسې الوتنې، پریډیټر، ریپر او ډیری نور سوپر ماشینونه کاروي، دوی نه وو او نه خپلواکي ماډلونه دي. دوی په لیرې توګه د آپریټرانو لخوا کنټرول کیږي، ځینې وختونه د څو زره کیلومتره فاصلې څخه. د دې ډول ماشینونو د خپلواکۍ په اړه ګرم بحث د پروټوټایپ د پریمیر سره پیل شو. ډرون X-47B (5)، چې نه یوازې په خپلواکه توګه الوتنه کوله، بلکې کولی شي د الوتکې وړونکي څخه هم الوتنه وکړي، په هغې کې کښیني او په هوا کې تیلو ته ورسوي. مطلب د انسان له مداخلې پرته ډزې یا بمبار کول هم دي. په هرصورت، پروژه لاهم د ازموینې او بیاکتنې لاندې ده.

5. د بې پیلوټه X-47B ازموینه په امریکایی الوتکه وړونکې بېړۍ کې

په 2003 کې، د دفاع وزارت د کوچني ټانک په څیر روبوټ تجربه پیل کړه. سپوږمۍ په ماشین ټوپک سمبال. په ۲۰۰۷ کال کې عراق ته واستول شو. په هرصورت، برنامه وروسته له هغه پای ته ورسیده کله چې روبوټ په غلط ډول چلند پیل کړ او خپل ټوپک یې په غلط ډول حرکت وکړ. د پایلې په توګه، د متحده ایاالتو اردو د ډیرو کلونو لپاره د وسله والو ځمکنیو روبوټونو په اړه څیړنې پریښودې.

په ورته وخت کې، د متحده ایالاتو اردو په 20 کې د 2014 ملیون ډالرو څخه په 156 کې 2018 ملیون ډالرو ته د عملیاتو لګښتونه لوړ کړي. په 2019 کې، دا بودیجه لا دمخه 327 ملیون ډالرو ته رسیدلې ده. دا یوازې په څو کلونو کې د 1823٪ مجموعي زیاتوالی دی. کارپوهان وايي چې تر ۲۰۲۵ کال پورې ښايي د امریکا پوځ د جګړې ډګر وي د انسانانو په پرتله ډیر روبوټ سرتیري.

په دې وروستیو کې د امریکا د پوځ له خوا د اعلان او څرګندونو په اړه ډېر جنجالونه راپورته شوي دي د ATLAS پروژه () - اتوماتیک. په رسنیو کې، دا د پورته ذکر شوي لارښود 3000.09 څخه سرغړونه ګڼل کیږي. په هرصورت، د متحده ایالاتو اردو ردوي او ډاډ ورکوي چې د پریکړې کولو دورې څخه د یو کس ایستل له پوښتنې څخه بهر دی.

AI شارک او ملکيان پیژني

په هرصورت، د خپلواکو وسلو مدافعین نوي دلیلونه لري. پروفیسور رونالډ آرکین، د جورجیا د ټیکنالوژۍ انسټیټیوټ کې روبوټیسټ، په خپلو خپرونو کې وايي په عصري جګړه کې، هوښیارې وسلې د ملکي تلفاتو د مخنیوي لپاره اړینې دي، ځکه چې د ماشین زده کړې تخنیکونه کولی شي په اغیزمنه توګه د جنګیالیو او ملکي خلکو ترمنځ توپیر وکړي، او مهم او غیر مهم هدفونه.

د داسې AI مهارتونو یوه بیلګه د آسټرالیا په ساحلونو کې ګزمه کول دي. ډرون کوچني ریپرد شارک سپوټر سیسټم سره مجهز دی چې د ټیکنالوژۍ سیډني پوهنتون لخوا رامینځته شوی. دا سیسټم په اوتومات ډول د شارک لپاره اوبه سکین کوي ​​او چلونکي ته خبرداری ورکوي کله چې یو څه ناامنه وګوري. (6) دا کولی شي خلک، دالفین، کښتۍ، سرفبورډونه او په اوبو کې شیان وپیژني ترڅو د شارک څخه توپیر وکړي. دا کولی شي د لوړ دقت سره شاوخوا شپاړس مختلف ډولونه کشف او وپیژني.

6. د شارک سپوټر سیسټم کې پیژندل شوي شارکونه

د ماشین زده کړې دا پرمختللي میتودونه د 90٪ څخه ډیر د هوایی کشف دقت ډیروي. د پرتله کولو لپاره، په ورته حالت کې یو انسان چلونکی په هوایی عکسونو کې 20-30٪ شیان په سمه توګه پیژني. سربیره پردې، پیژندنه لاهم د الارم دمخه د انسان لخوا تایید کیږي.

د جګړې په ډګر کې، آپریټر، په سکرین کې د عکس په لیدلو سره، په سختۍ سره دا معلومه کولی شي چې آیا په ځمکه کې خلک په لاسونو کې د AK-47 سره جنګیالي دي یا د بیلګې په توګه، کروندګر د پیک سره. آرکین یادونه کوي چې خلک "هغه څه ګوري چې دوی یې لیدل غواړي" په ځانګړي توګه په فشار لرونکي حالتونو کې. دا اغیز په 1987 کې د USS Vincennes لخوا د یوې ایراني الوتکې په ناڅاپي غورځولو کې مرسته وکړه. البته، د هغه په ​​​​نظر، د AI کنټرول وسلې به د اوسني "سمارټ بمونو" څخه غوره وي، کوم چې واقعا حساس ندي. د تېر اګست په میاشت کې هم د سعودي عربستان یوه لیزر لرونکی توغندی په یمن کې د ښوونځیو د زده کوونکو یو بس په نښه کړ چې څلویښت ماشومان یې ووژل.

"که چیرې د ښوونځي بس په سمه توګه لیبل شوی وي ، نو په خپلواکه سیسټم کې یې پیژندل نسبتا اسانه کیدی شي ،" آرکین په مشهور میخانیک کې استدلال کوي.

په هرصورت، دا دلیلونه داسې نه بریښي چې کمپاین کونکي د اتوماتیک وژونکو په وړاندې قانع کړي. د وژونکي روبوټونو د ګواښ سربیره، یو بل مهم حالت باید په پام کې ونیول شي. حتی یو "ښه" او "توجه لرونکی" سیسټم هیک کیدی شي او د ډیرو بدو خلکو لخوا ونیول شي. بیا د نظامي تجهیزاتو په دفاع کې ټول دلیلونه خپل ځواک له لاسه ورکوي.

Add a comment