მანქანური მკვლელის აჩრდილი გრძელდება. რისი სჯერა პრეზიდენტ პუტინს?
ტექნიკა

მანქანური მკვლელის აჩრდილი გრძელდება. რისი სჯერა პრეზიდენტ პუტინს?

სამხედრო რობოტების (1) მომხრეები ამტკიცებენ, რომ ავტომატური იარაღი უფრო მეტ ვარიანტს იძლევა ადამიანის სიცოცხლის დასაცავად. მანქანებს შეუძლიათ ჯარისკაცებთან შედარებით მტერთან მიახლოება და საფრთხის სწორად შეფასება. და ემოციები ზოგჯერ პარალიზებს სწორი გადაწყვეტილებების მიღების უნარს.

მკვლელი რობოტების ბევრი ადვოკატი დარწმუნებულია, რომ ისინი ომებს ნაკლებად სისხლიანს გახდიან, რადგან ნაკლები ჯარისკაცი დაიღუპება. ისინი აღნიშნავენ, რომ რობოტები, მიუხედავად იმისა, რომ არ გრძნობენ სინანულს, იმუნური არიან ადამიანის უარყოფითი ემოციებისგან, როგორიცაა პანიკა, ბრაზი და შურისძიება, რაც ხშირად იწვევს ომის დანაშაულებს.

უფლებადამცველები ასევე იყენებენ არგუმენტს, რომ სამხედროებმა გამოიწვია სამოქალაქო მსხვერპლის უზარმაზარი შემცირება გასული ნახევარი საუკუნის განმავლობაში და ჯარის რობოტიზაცია საშუალებას აძლევს მექანიზმს ომის კანონების უფრო მკაცრად აღსრულება. ისინი აცხადებენ, რომ მანქანები გახდება ეთიკური, როდესაც ისინი აღჭურვილი იქნება პროგრამული უზრუნველყოფით, რომელიც აიძულებს მათ დაემორჩილონ ომის კანონებს.

რა თქმა უნდა, უამრავი ადამიანი, მათ შორის ძალიან ცნობილი ადამიანები, წლების განმავლობაში არ იზიარებენ ამ აზრს. 2013 წლის აპრილში დაიწყო საერთაშორისო კამპანია ლოზუნგით (2). მის ფარგლებში არასამთავრობო ორგანიზაციები ითხოვენ ავტონომიური იარაღის გამოყენების სრულ აკრძალვას. მრავალი ქვეყნის ექსპერტები პირველად დასხდნენ ამ თემაზე განიარაღების შესახებ გაეროს კონფერენციაზე ჟენევაში 2014 წლის მაისში. Human Rights Watch-ისა და ჰარვარდის უნივერსიტეტის მეცნიერების მიერ რამდენიმე თვის შემდეგ გამოქვეყნებულ მოხსენებაში ნათქვამია, რომ ავტონომიები ძალიან საშიში იქნებოდა - ისინი ირჩევდნენ საკუთარ სამიზნეებს და ხოცავდნენ ხალხს. ამავდროულად, არც ისე ნათელია, ვინ უნდა აგოს პასუხი.

2. აქცია Stop Killer Robots-ის კამპანიის ფარგლებში

რა შეუძლია პატარა თვითმფრინავების ჯგუფს

დავები მკვლელი რობოტების (ROU) ირგვლივ წლების განმავლობაში გრძელდება და არ ქრება. ბოლო თვეებმა მოიტანა სამხედრო რობოტების შეჩერების ახალი მცდელობები და ამ ტიპის ახალი პროექტების შესახებ მოხსენებების ტალღა, რომელთაგან ზოგიერთი გამოცდაც კი მიმდინარეობს რეალურ საბრძოლო პირობებში.

2017 წლის ნოემბერში გამოჩნდა ვიდეო მინი-დრონების სასიკვდილო გუნდები ., საშინელი მოქმედებით. მაყურებლებმა დაინახეს, რომ ჩვენ აღარ გვჭირდება მძიმე საბრძოლო მანქანები, ტანკები ან რაკეტები, რომლებიც მტაცებლების მიერ იქნა ნასროლი მასიურად და ტყვიამფრქვევებით მოსაკლავად. წამყვანი დირექტორი სტიუარტ რასელი, ხელოვნური ინტელექტის პროფესორი ბერკლიში, ამბობს:

-

Წინა გაზაფხული ორმოცდაათი პროფესორი მსოფლიოს წამყვანმა უნივერსიტეტებმა ხელი მოაწერეს მიმართვას კორეის მოწინავე მეცნიერებისა და ტექნოლოგიების ინსტიტუტს (KAIST) და მის პარტნიორ Hanwha Systems-ს. მათ განაცხადეს, რომ არ ითანამშრომლებენ უნივერსიტეტთან და უმასპინძლებენ KAIST-ის სტუმრებს. მიზეზი ორივე დაწესებულების მიერ განხორციელებული „ავტონომიური იარაღის“ მშენებლობა გახდა. KAIST-მა უარყო მედიის ინფორმაცია.

ცოტა ხნის შემდეგ აშშ-ში Google-ის 3-ზე მეტი თანამშრომელი სამხედროებისთვის კომპანიის მუშაობა გააპროტესტეს. ისინი შეშფოთებულნი იყვნენ იმით, რომ Google თანამშრომლობდა სამთავრობო პროექტთან კოდური სახელით Maven, რომელიც მიზნად ისახავს გამოიყენოს ხელოვნური ინტელექტი, რათა ამოიცნოს ობიექტები და სახეები სამხედრო დრონის ვიდეოებში. კომპანიის მენეჯმენტი ამბობს, რომ Maven-ის მიზანია სიცოცხლის გადარჩენა და ხალხის გადარჩენა დამღლელი სამუშაოსგან და არა აგრესიისგან. აქციის მონაწილეები არ დარწმუნდნენ.

ბრძოლის შემდეგი ნაწილი იყო დეკლარაცია ხელოვნური ინტელექტის ექსპერტები, მათ შორის გუგლის პროექტზე მუშაობა და ილონ მასკი. ისინი გპირდებიან, რომ არ შეიმუშავებენ რობოტებს. ისინი ასევე მოუწოდებენ მთავრობებს, გააძლიერონ ძალისხმევა ამ იარაღის რეგულირებისა და შეზღუდვის მიზნით.

განცხადებაში, ნაწილობრივ, ნათქვამია, რომ „ადამიანის სიცოცხლის მოსპობის გადაწყვეტილება არასოდეს არ უნდა იქნას მიღებული მანქანით“. მიუხედავად იმისა, რომ მსოფლიოს ჯარები აღჭურვილია მრავალი ავტომატური მოწყობილობით, ზოგჯერ ავტონომიის მაღალი ხარისხით, ბევრი ექსპერტი შიშობს, რომ მომავალში ეს ტექნოლოგია შეიძლება გახდეს სრულიად ავტონომიური, რაც საშუალებას მისცემს მოკვლას ადამიანის ოპერატორისა და მეთაურის გარეშე.

ექსპერტები ასევე აფრთხილებენ, რომ ავტონომიური მკვლელობის მანქანები შეიძლება კიდევ უფრო საშიში იყოს, ვიდრე "ბირთვული, ქიმიური და ბიოლოგიური იარაღი", რადგან ისინი ადვილად გამოდიან კონტროლიდან. მთლიანობაში, გასული წლის ივლისში, „სიცოცხლის მომავლის ინსტიტუტის“ (FGI) ეგიდით წერილს 170 ორგანიზაციამ და 2464 პირმა მოაწერა ხელი. 2019 წლის პირველ თვეებში, FLI-თან დაკავშირებულმა სამედიცინო მეცნიერთა ჯგუფმა კვლავ მოითხოვა ახალი წერილი, რომელიც კრძალავს ხელოვნური ინტელექტის (AI) კონტროლირებადი იარაღის შემუშავებას.

გასული წლის აგვისტოს გაეროს შეხვედრა გნიევოში სამხედრო „მკვლელი რობოტების“ შესაძლო სამართლებრივი რეგულირების შესახებ, წარმატებით დასრულდა... მანქანები. ქვეყნების ჯგუფმა, მათ შორის შეერთებულმა შტატებმა, რუსეთმა და ისრაელმა, დაბლოკა შემდგომი მუშაობა ამ იარაღზე საერთაშორისო აკრძალვის შემოღებაზე (კონვენციის პროექტი გარკვეული ჩვეულებრივი იარაღის გამოყენების აკრძალვის ან შეზღუდვის შესახებ, CCW). შემთხვევითი არ არის, რომ ეს ქვეყნები ცნობილია ავტონომიური და რობოტული იარაღის მოწინავე სისტემებზე მუშაობით.

რუსეთი ყურადღებას ამახვილებს საბრძოლო რობოტებზე

პრეზიდენტ ვლადიმერ პუტინს ხშირად ციტირებენ სამხედრო AI სისტემებისა და საბრძოლო რობოტების შესახებ:

-.

ღიად საუბრობს ავტონომიური იარაღის შემუშავებაზე. მისი შეიარაღებული ძალების გენერალური შტაბის უფროსმა, გენერალმა ვალერი გერასიმოვმა ცოტა ხნის წინ განუცხადა სამხედრო საინფორმაციო სააგენტო Interfax-AVN-ს, რომ რობოტების გამოყენება მომავალი ომების ერთ-ერთი მთავარი მახასიათებელი იქნება. მან დასძინა, რომ რუსეთი ცდილობს ბრძოლის ველის სრულად ავტომატიზაცია. მსგავსი კომენტარები გააკეთეს ვიცე-პრემიერმა დიმიტრი როგოზინმა და თავდაცვის მინისტრმა სერგეი შოიგუმ. ფედერაციის საბჭოს თავდაცვისა და უშიშროების კომიტეტის თავმჯდომარემ ვიქტორ ბონდარევმა განაცხადა, რომ რუსეთი განვითარებისკენ მიისწრაფვის როჟუს ტექნოლოგიებიეს საშუალებას მისცემს დრონების ქსელებს იმოქმედონ როგორც ერთიანი ერთეული.

ეს გასაკვირი არ არის, თუ გავიხსენებთ, რომ პირველი ტელეტანკები საბჭოთა კავშირში 30-იან წლებში შეიქმნა. ისინი გამოიყენეს მეორე მსოფლიო ომის დასაწყისში. დღეს რუსეთიც ქმნის სატანკო რობოტები გახდეს უფრო და უფრო ავტონომიური.

პუტინის სახელმწიფომ ცოტა ხნის წინ სირიაში საკუთარი გაგზავნა უპილოტო საბრძოლო მანქანა Uran-9 (3). მოწყობილობამ დაკარგა კონტაქტი სახმელეთო კონტროლის პუნქტებთან, შეექმნა პრობლემები დაკიდების სისტემასთან და მისი იარაღი არ ფუნქციონირებდა იდეალურად და არ ურტყამდა მოძრავ სამიზნეებს. ეს არ ჟღერს ძალიან სერიოზულად, მაგრამ ბევრი მიიჩნევს, რომ სირიის ხელსახოცი არის კარგი საბრძოლო ტესტი, რომელიც რუსებს საშუალებას მისცემს გააუმჯობესონ მანქანა.

Roscosmos-მა დაამტკიცა წინასწარი გეგმა, რომლითაც ორი რობოტი გაეგზავნა საერთაშორისო კოსმოსურ სადგურზე მიმდინარე წლის აგვისტომდე. ფიოდორ (4) უპილოტო კავშირში. არა როგორც დატვირთვა, მაგრამ. როგორც ფილმში RoboCop, ფედორი ატარებს იარაღს და აჩვენებს სასიკვდილო სროლის უნარს სროლის დროს.

საკითხავია, რატომ უნდა იყოს შეიარაღებული რობოტი კოსმოსში? არსებობს ეჭვები, რომ საქმე მხოლოდ გრუნტის აპლიკაციებში არ არის. იმავდროულად დედამიწაზე იარაღის რუსმა მწარმოებელმა კალაშნიკოვმა აჩვენა ვიზუალიზაცია რობოტი იგორეკირამაც, მიუხედავად იმისა, რომ დიდი სიცილი გამოიწვია, მიანიშნებს, რომ კომპანია სერიოზულად მუშაობს ავტონომიურ საბრძოლო მანქანებზე. 2018 წლის ივლისში კალაშნიკოვმა გამოაცხადა, რომ ის ამზადებდა იარაღს, რომელსაც იყენებს გადაწყვეტილების მისაღებად, „ესროლოს თუ არ ესროლოს“.

ამ ინფორმაციას უნდა დაემატოს ცნობები იმის შესახებ, რომ რუსმა იარაღის მწარმოებელმა დიგტიარეევმა შეიმუშავა მცირე ავტონომიური ტანკი ნერეხტი რომელსაც შეუძლია ჩუმად მოძრაობდეს თავისი მიზნისკენ და შემდეგ ძლიერი ძალით აფეთქდეს სხვა ან მთელი შენობების განადგურების მიზნით. Ისევე, როგორც სატანკო T14 არმია , რუსეთის შეიარაღებული ძალების სიამაყე, შექმნილი იყო შესაძლო დისტანციური მართვისა და უპილოტო მართვისთვის. Sputnik ირწმუნება, რომ რუსი სამხედრო ინჟინრები მუშაობენ T-14-ის სრულად ავტონომიურ ჯავშანმანქანად გადაქცევაზე.

წინააღმდეგობის დირექტივა

თავად ამერიკელმა სამხედროებმა დააწესეს საკმაოდ მკაფიო ლიმიტი მათი იარაღის ავტონომიის დონეზე. 2012 წელს აშშ-ს თავდაცვის დეპარტამენტმა გამოსცა დირექტივა 3000.09, რომელშიც ნათქვამია, რომ ადამიანებს უნდა ჰქონდეთ უფლება გააპროტესტონ შეიარაღებული რობოტების ქმედებები. (თუმცა შეიძლება იყოს რამდენიმე გამონაკლისი). ეს დირექტივა ძალაში რჩება. პენტაგონის ამჟამინდელი პოლიტიკა არის ის, რომ იარაღის გამოყენებისას გადამწყვეტი ფაქტორი ყოველთვის უნდა იყოს ადამიანი და ასეთი განსჯა უნდა იყოს. შეესაბამება ომის კანონებს.

მიუხედავად იმისა, რომ ამერიკელები ათწლეულების განმავლობაში იყენებდნენ მფრინავ, Predator-ს, Reaper-ს და ბევრ სხვა სუპერმანქანებს, ისინი არ იყვნენ და არ არიან ავტონომიური მოდელები. მათ აკონტროლებენ ოპერატორები დისტანციურად, ზოგჯერ რამდენიმე ათასი კილომეტრის მანძილიდან. მწვავე დისკუსია ამ ტიპის მანქანების ავტონომიის შესახებ დაიწყო პროტოტიპის პრემიერით. დრონი X-47B (5), რომელიც არა მხოლოდ დამოუკიდებლად იფრინავდა, არამედ შეეძლო ავიამზიდიდან აფრენა, მასზე დაშვება და ჰაერში საწვავის შევსება. მნიშვნელობა ასევე არის სროლა ან დაბომბვა ადამიანის ჩარევის გარეშე. თუმცა, პროექტი ჯერ კიდევ ტესტირებისა და განხილვის პროცესშია.

5. უპილოტო X-47B-ის ტესტები ამერიკულ ავიამზიდზე

2003 წელს თავდაცვის დეპარტამენტმა დაიწყო ექსპერიმენტები პატარა ტანკის მსგავსი რობოტით. SPOES აღჭურვილია ავტომატით. 2007 წელს იგი გაგზავნეს ერაყში. თუმცა, პროგრამა დასრულდა მას შემდეგ, რაც რობოტმა დაიწყო არასტაბილური ქცევა, თოფის არარეგულარულად მოძრაობა. შედეგად, აშშ-ს სამხედროებმა მრავალი წლის განმავლობაში მიატოვეს შეიარაღებული სახმელეთო რობოტების შესწავლა.

ამავდროულად, აშშ-ს არმიამ 20 წლის 2014 მილიონი დოლარიდან 156 წელს 2018 მილიონ დოლარამდე გაზარდა ოპერაციებზე დანახარჯები. 2019 წელს ეს ბიუჯეტი უკვე გადახტა $327 მილიონამდე. ეს არის კუმულაციური ზრდა 1823%-ით სულ რამდენიმე წელიწადში. ექსპერტები ამბობენ, რომ უკვე 2025 წელს აშშ-ს სამხედროებს შესაძლოა ბრძოლის ველი ჰქონდეთ მეტი რობოტი ჯარისკაცი ვიდრე ადამიანი.

ბოლო დროს ბევრი პოლემიკა გამოიწვია და გამოაცხადა აშშ-ს არმიამ ATLAS პროექტი () - ავტომატური. მედიაში ეს განიხილებოდა ზემოაღნიშნული დირექტივის 3000.09 დარღვევად. თუმცა, აშშ-ის სამხედროები უარყოფენ და ირწმუნებიან, რომ გადაწყვეტილების მიღების ციკლიდან პირის გამორიცხვა გამორიცხულია.

ხელოვნური ინტელექტი ცნობს ზვიგენებს და სამოქალაქო პირებს

თუმცა, ავტონომიური იარაღის დამცველებს ახალი არგუმენტები აქვთ. პროფ. ამის შესახებ ჯორჯიის ტექნოლოგიური ინსტიტუტის რობოტიკოსი რონალდ არკინი თავის პუბლიკაციებში აცხადებს თანამედროვე ომში ინტელექტუალური იარაღი აუცილებელია სამოქალაქო მსხვერპლის თავიდან ასაცილებლად, რადგან მანქანათმცოდნეობის ტექნიკას შეუძლია ეფექტურად განასხვავოს მებრძოლები და მშვიდობიანი მოქალაქეები და მნიშვნელოვანი და უმნიშვნელო სამიზნეები.

ხელოვნური ინტელექტის ასეთი უნარების მაგალითია ავსტრალიის პლაჟების პატრულირება. დრონები Little Ripperაღჭურვილია SharkSpotter სისტემით, რომელიც შემუშავებულია სიდნეის ტექნოლოგიური უნივერსიტეტის მიერ. ეს სისტემა ავტომატურად სკანირებს წყალს ზვიგენებისთვის და აფრთხილებს ოპერატორს, როცა რაიმე სახიფათო რამეს დაინახავს. (6) მას შეუძლია ამოიცნოს ადამიანები, დელფინები, ნავები, სერფინგის დაფები და საგნები წყალში, რათა განასხვავოს ისინი ზვიგენებისგან. მას შეუძლია თექვსმეტი სხვადასხვა სახეობის აღმოჩენა და ამოცნობა მაღალი სიზუსტით.

6. SharkSpotter სისტემაში აღიარებული ზვიგენები

ეს მოწინავე მანქანური სწავლის მეთოდები ზრდის საჰაერო დაზვერვის სიზუსტეს 90%-ზე მეტით. შედარებისთვის, მსგავს სიტუაციაში მყოფი ადამიანის ოპერატორი ზუსტად ამოიცნობს აეროფოტოებში ობიექტების 20-30%-ს. გარდა ამისა, იდენტიფიკაცია კვლავ მოწმდება ადამიანის მიერ განგაშის დაწყებამდე.

ბრძოლის ველზე ოპერატორი, ეკრანზე გამოსახულების დანახვისას, ძლივს ადგენს, ადგილზე მყოფი მებრძოლები არიან AK-47-ებით ხელში, თუ, მაგალითად, ფერმერები პიკებით. არკინი აღნიშნავს, რომ ადამიანები მიდრეკილნი არიან „ნახონ ის, რისი დანახვაც სურთ“, განსაკუთრებით სტრესულ სიტუაციებში. ამ ეფექტმა ხელი შეუწყო ირანული თვითმფრინავის შემთხვევით ჩამოგდებას USS Vincennes-ის მიერ 1987 წელს. რა თქმა უნდა, მისი აზრით, ხელოვნური ინტელექტის კონტროლირებადი იარაღი უკეთესი იქნება, ვიდრე ამჟამინდელი „ჭკვიანი ბომბები“, რომლებიც ნამდვილად არ არის მგრძნობიარე. გასული წლის აგვისტოში, საუდის არაბეთის ლაზერით მართვადი რაკეტა იემენში სკოლის მოსწავლეებით სავსე ავტობუსს დაეჯახა, რის შედეგადაც ორმოცი ბავშვი დაიღუპა.

„თუ სასკოლო ავტობუსი სათანადოდ არის მარკირებული, მისი იდენტიფიცირება ავტონომიურ სისტემაში შედარებით ადვილი იქნება“, - ამტკიცებს არკინი პოპულარულ მექანიკაში.

თუმცა, როგორც ჩანს, ეს არგუმენტები არ არწმუნებს ავტომატური მკვლელების წინააღმდეგ კამპანიის მონაწილეებს. გარდა მკვლელი რობოტების საფრთხისა, გასათვალისწინებელია კიდევ ერთი მნიშვნელოვანი გარემოება. „კარგი“ და „ყურადღებიანი“ სისტემაც კი შეიძლება გატეხოს და ხელში ჩაიგდოს ძალიან ცუდი ადამიანები. მაშინ სამხედრო ტექნიკის დასაცავად ყველა არგუმენტი ძალას კარგავს.

ახალი კომენტარის დამატება