ალგორითმების ომი
ტექნიკა

ალგორითმების ომი

როდესაც საქმე ეხება ჯარში ხელოვნური ინტელექტის გამოყენებას, მაშინვე იღვიძებს სამეცნიერო ფანტასტიკის კოშმარი, მეამბოხე და მომაკვდინებელი AI, რომელიც კაცობრიობის წინააღმდეგ აღდგება, რათა გაანადგუროს იგი. სამწუხაროდ, სამხედროების და ლიდერების შიში იმისა, რომ „მტერი დაგვეწიება“ ისეთივე ძლიერია ომის ალგორითმების შემუშავებაში.

ალგორითმული ომირაც, ბევრის აზრით, შეიძლება ფუნდამენტურად შეცვალოს ბრძოლის ველის სახე, როგორც ეს ჩვენ ვიცით, ძირითადად იმიტომ, რომ ომი უფრო სწრაფი იქნებოდა, ხალხის გადაწყვეტილების მიღების უნარზე ბევრად უსწრებს. ამერიკელი გენერალი ჯეკ შანაჰანი (1), შეერთებული შტატების ხელოვნური ინტელექტის ერთობლივი ცენტრის ხელმძღვანელი, ხაზს უსვამს, რომ ხელოვნური ინტელექტის არსენალებში შეყვანამდე, ჩვენ უნდა დავრწმუნდეთ, რომ ეს სისტემები ჯერ კიდევ ადამიანის კონტროლის ქვეშ არიან და არ დაიწყებენ ომებს დამოუკიდებლად.

"თუ მტერს აქვს მანქანები და ალგორითმები, ჩვენ დავკარგავთ ამ კონფლიქტს"

მართვის უნარი ალგორითმული ომი ეფუძნება კომპიუტერული ტექნოლოგიების მიღწევების გამოყენებას სამ ძირითად სფეროში. Პირველი გამოთვლითი სიმძლავრის ექსპონენციალური ზრდის ათწლეულების განმავლობაშიამან მნიშვნელოვნად გააუმჯობესა მანქანური სწავლის შესრულება. მეორე რესურსების სწრაფი ზრდა „დიდი მონაცემები“, ანუ უზარმაზარი, ჩვეულებრივ ავტომატიზირებული, მართული და მუდმივად შექმნილი მონაცემთა ნაკრები, რომელიც შესაფერისია მანქანათმცოდნეობისთვის. მესამე ეხება ღრუბლოვანი გამოთვლითი ტექნოლოგიების სწრაფი განვითარება, რომლის მეშვეობითაც კომპიუტერებს შეუძლიათ ადვილად წვდომა მონაცემთა რესურსებზე და დაამუშავონ ისინი პრობლემების გადასაჭრელად.

ომის ალგორითმიროგორც ექსპერტებმა განსაზღვრეს, ის ჯერ უნდა იყოს გამოხატული კომპიუტერის კოდი. მეორეც, ეს უნდა იყოს პლატფორმის შედეგი, რომელსაც შეუძლია როგორც ინფორმაციის შეგროვება, ასევე არჩევანის გაკეთება, გადაწყვეტილებების მიღება, რომლებიც, ყოველ შემთხვევაში, თეორიულად არ საჭიროებს. ადამიანის ჩარევა. მესამე, რაც აშკარად ჩანს, მაგრამ არა აუცილებლად ასე, რადგან მხოლოდ მოქმედებით ირკვევა, შეიძლება თუ არა რაიმესთვის განკუთვნილი ტექნიკა გამოსადეგი იყოს ომში და პირიქით, მას უნდა შეეძლოს პირობებში მუშაობა. შეიარაღებული კონფლიქტი.

ზემოაღნიშნული მიმართულებებისა და მათი ურთიერთქმედების ანალიზი აჩვენებს, რომ ალგორითმული ომი ეს არ არის ცალკე ტექნოლოგია, როგორიცაა მაგალითად. ენერგეტიკული იარაღი ან ჰიპერბგერითი რაკეტები. მისი ეფექტები ფართო სპექტრია და თანდათანობით ხდება ყველგან საომარი მოქმედებები. Პირველად სამხედრო მანქანები ისინი ხდებიან ინტელექტუალური, პოტენციურად გახდის თავდაცვის ძალებს, რომლებიც მათ ახორციელებენ უფრო ეფექტურ და ეფექტურს. ასეთ ინტელექტუალურ მანქანებს აქვთ მკაფიო შეზღუდვები, რომლებიც კარგად უნდა იქნას გაგებული.

"- თქვა შანაჰანმა გასულ შემოდგომაზე Google-ის ყოფილ აღმასრულებელ დირექტორთან ერიკ შმიდტთან და Google-ის საერთაშორისო ურთიერთობების ვიცე-პრეზიდენტთან კენტ უოკერთან ინტერვიუში. "".

აშშ-ს ეროვნული უშიშროების საბჭოს ანგარიშის პროექტი ხელოვნური ინტელექტის შესახებ ჩინეთს 50-ზე მეტჯერ ეხება, რაც ხაზს უსვამს ჩინეთის ოფიციალურ მიზანს, გახდეს 2030 წლისთვის ხელოვნური ინტელექტის მსოფლიო ლიდერი.იხილეთ ასევე: ).

ეს სიტყვები ითქვა ვაშინგტონში სპეციალურ კონფერენციაზე, რომელიც გაიმართა მას შემდეგ, რაც ზემოხსენებულმა შანახანის ცენტრმა კონგრესს წარუდგინა თავისი წინასწარი ანგარიში, რომელიც მომზადდა ხელოვნური ინტელექტის დარგის ცნობილ ექსპერტებთან, მათ შორის Microsoft-ის კვლევის დირექტორთან ერიკ ჰორვიცთან, AWS-ის აღმასრულებელ დირექტორთან, ენდი ჯასა და თანამშრომლობით. Google Cloud-ის მთავარი მკვლევარი ენდრიუ მური. საბოლოო ანგარიში გამოქვეყნდება 2020 წლის ოქტომბერში.

Google-ის თანამშრომლები აპროტესტებენ

რამდენიმე წლის წინ პენტაგონი ჩაერთო. ალგორითმული ომი და AI-თან დაკავშირებული არაერთი პროექტი Maven-ის პროექტის ფარგლებში, რომელიც ეფუძნება თანამშრომლობას ტექნოლოგიურ კომპანიებთან, მათ შორის Google-თან და სტარტაპებთან, როგორიცაა Clarifai. ეს ძირითადად ეხებოდა მუშაობას ხელოვნური ინტელექტიობიექტების იდენტიფიკაციის გასაადვილებლად.

როდესაც 2018 წლის გაზაფხულზე ცნობილი გახდა პროექტში Google-ის მონაწილეობის შესახებ, Mountain View გიგანტის ათასობით თანამშრომელმა ხელი მოაწერა ღია წერილს, რომელიც აპროტესტებდა საომარ მოქმედებებში კომპანიის მონაწილეობას. რამდენიმეთვიანი შრომითი არეულობის შემდეგ Google-მა მიიღო საკუთარი წესები AI-სთვისრაც მოიცავს ღონისძიებებში მონაწილეობის აკრძალვას.

Google ასევე ვალდებულია დაასრულოს Project Maven კონტრაქტი 2019 წლის ბოლომდე. Google-ის გამოსვლამ არ დაასრულა Project Maven. ის შეიძინა პიტერ ტიელის პალანტირმა. საჰაერო ძალები და აშშ-ს საზღვაო კორპუსი გეგმავენ გამოიყენონ სპეციალური უპილოტო საფრენი აპარატები, როგორიცაა Global Hawk, Maven-ის პროექტის ფარგლებში, რომელთაგან თითოეული ვიზუალურად აკონტროლებს 100 კვადრატულ კილომეტრს.

იმ დღესთან დაკავშირებით, რაც ხდება Project Maven-ის გარშემო, გაირკვა, რომ აშშ-ს სამხედროებს სასწრაფოდ სჭირდებათ საკუთარი ღრუბელი. ამის შესახებ შანაჰანმა კონფერენციაზე განაცხადა. ეს აშკარა იყო, როდესაც ვიდეო კადრები და სისტემის განახლებები უნდა გადაეტანა მინდორზე მიმოფანტულ სამხედრო ობიექტებში. შენობაში ერთიანი ღრუბლოვანი გამოთვლა, რომელიც ხელს შეუწყობს ამ ტიპის პრობლემების გადაჭრას, როგორც ერთიანი IT ინფრასტრუქტურული პროექტის ნაწილი ჯედაების არმიისთვის, Microsoft, Amazon, Oracle და IBM. Google არ არის მათი ეთიკური კოდების გამო.

შანაჰანის განცხადებიდან ირკვევა, რომ სამხედრო ხელოვნური ინტელექტის დიდი რევოლუცია მხოლოდ ახლა იწყება. და მისი ცენტრის როლი აშშ-ს შეიარაღებულ ძალებში იზრდება. ეს აშკარად ჩანს JAIC-ის სავარაუდო ბიუჯეტში. 2019 წელს ის სულ რაღაც 90 მილიონ დოლარს შეადგენდა. 2020 წელს ის უკვე 414 მილიონი დოლარი უნდა იყოს, ანუ პენტაგონის 10 მილიარდი დოლარის AI ბიუჯეტის დაახლოებით 4 პროცენტი.

მანქანა ცნობს ჩაბარებულ ჯარისკაცს

აშშ-ს ჯარები უკვე აღჭურვილია ისეთი სისტემებით, როგორიცაა Phalanx (2), რომელიც არის ავტონომიური იარაღის ტიპი, რომელიც გამოიყენება აშშ-ს საზღვაო ძალების გემებზე შემომავალ რაკეტებზე თავდასხმისთვის. როდესაც რაკეტა აღმოჩენილია, ის ავტომატურად ირთვება და ანადგურებს ყველაფერს მის გზაზე. ფორდის თქმით, მას შეუძლია შეტევა ოთხი ან ხუთი რაკეტით ნახევარ წამში ყოველი სამიზნის გავლისა და შეხედვის გარეშე.

კიდევ ერთი მაგალითია ნახევრად ავტონომიური ჰარპი (3), კომერციული უპილოტო სისტემა. ჰარპიას იყენებენ მტრის რადარების განადგურებისთვის. მაგალითად, 2003 წელს, როდესაც შეერთებულმა შტატებმა დაიწყო დარტყმა ერაყზე, რომელსაც ჰქონდა საჰაერო სადესანტო სარადარო ჩარევის სისტემები, ისრაელის წარმოების დრონები დაეხმარნენ მათ პოვნასა და განადგურებას, რათა ამერიკელებმა უსაფრთხოდ შეძლეს ერაყის საჰაერო სივრცეში ფრენა.

3. IAI Harpy სისტემის დრონის გაშვება

ავტონომიური იარაღის კიდევ ერთი ცნობილი მაგალითია კორეული Samsung SGR-1 სისტემა, რომელიც მდებარეობს ჩრდილოეთ და სამხრეთ კორეას შორის დემილიტარიზებულ ზონაში, რომელიც შექმნილია თავდამსხმელების იდენტიფიცირებისთვის და სროლისთვის ოთხ კილომეტრამდე მანძილზე. აღწერილობის მიხედვით, სისტემას „შეუძლია განასხვავოს პირი, ვინც დანებდა და პირი, რომელიც არ დანებდება“ მათი ხელების პოზიციის ან ხელში იარაღის პოზიციის ამოცნობის საფუძველზე.

4. სამსუნგის SGR-1 სისტემის მიერ ჩაბარებული ჯარისკაცის გამოვლენის დემონსტრირება

ამერიკელებს ეშინიათ დარჩენის

ამჟამად მსოფლიოში სულ მცირე 30 ქვეყანა იყენებს ავტომატურ იარაღს სხვადასხვა დონის განვითარებისა და ხელოვნური ინტელექტის გამოყენებით. ჩინეთი, რუსეთი და შეერთებული შტატები ხელოვნურ ინტელექტს ხედავენ, როგორც შეუცვლელ ელემენტს მსოფლიოში თავიანთი სამომავლო პოზიციის შესაქმნელად. "ვინც გაიმარჯვებს ხელოვნური ინტელექტის რბოლაში, ის მართავს მსოფლიოს", - განუცხადა რუსეთის პრეზიდენტმა ვლადიმერ პუტინმა სტუდენტებს 2017 წლის აგვისტოში. ჩინეთის სახალხო რესპუბლიკის პრეზიდენტს, სი ჯინპინს, მედიაში ასეთი გახმაურებული განცხადებები არ გაუკეთებია, მაგრამ ის არის დირექტივის მთავარი მამოძრავებელი, რომელიც მოუწოდებს ჩინეთი გახდეს 2030 წლისთვის ხელოვნური ინტელექტის სფეროში დომინანტური ძალა.

შეერთებულ შტატებში იზრდება შეშფოთება "სატელიტური ეფექტის" შესახებ, რამაც აჩვენა, რომ შეერთებული შტატები უკიდურესად არასაკმარისად არის აღჭურვილი ხელოვნური ინტელექტის მიერ წამოყენებული ახალი გამოწვევების შესასრულებლად. და ეს შეიძლება იყოს სახიფათო მშვიდობისთვის, თუნდაც იმიტომ, რომ ქვეყანას, რომელსაც ემუქრება ბატონობა, შეიძლება მოინდომოს მტრის სტრატეგიული უპირატესობის სხვა გზით, ანუ ომით აღმოფხვრა.

მიუხედავად იმისა, რომ Maven-ის პროექტის თავდაპირველი მიზანი იყო ისლამური ISIS-ის მებრძოლების პოვნაში დახმარება, მისი მნიშვნელობა სამხედრო ხელოვნური ინტელექტის სისტემების შემდგომი განვითარებისთვის უზარმაზარია. ელექტრონული ომი, რომელიც დაფუძნებულია ჩამწერებზე, მონიტორებსა და სენსორებზე (მათ შორის, მობილური, მფრინავი) ასოცირდება მონაცემთა უამრავ ჰეტეროგენულ ნაკადებთან, რომელთა ეფექტურად გამოყენება შესაძლებელია მხოლოდ AI ალგორითმების დახმარებით.

ჰიბრიდული ბრძოლის ველი გახდა IoT-ის სამხედრო ვერსია, მდიდარია მნიშვნელოვანი ინფორმაციით ტაქტიკური და სტრატეგიული საფრთხეებისა და შესაძლებლობების შესაფასებლად. ამ მონაცემების რეალურ დროში მართვას დიდი სარგებელი მოაქვს, მაგრამ ამ ინფორმაციის სწავლის წარუმატებლობა შეიძლება დამღუპველი იყოს. ინფორმაციის ნაკადის სწრაფად დამუშავების შესაძლებლობა მრავალ სფეროში მოქმედი სხვადასხვა პლატფორმიდან იძლევა ორ მთავარ სამხედრო უპირატესობას: სიჩქარე i ხელმისაწვდომობა. ხელოვნური ინტელექტი საშუალებას გაძლევთ რეალურ დროში გააანალიზოთ ბრძოლის ველის დინამიური პირობები და დაარტყოთ სწრაფად და ოპტიმალურად, ამავდროულად მინიმუმამდე დაიყვანოთ რისკი თქვენი ძალებისთვის.

ეს ახალი ბრძოლის ველიც ყველგანაა და. AI არის ე.წ. ყველგან გავრცელებული სენსორების დახმარებით, დრონებს არა მხოლოდ საშუალებას აძლევს ნავიგაცია მტრულ რელიეფზე, არამედ საბოლოოდ შეიძლება დაუშვან სხვადასხვა ტიპის უპილოტო საფრენი აპარატების კომპლექსური წარმონაქმნების ფორმირება, რომლებიც მოქმედებენ ბევრ რაიონში, დამატებითი იარაღით, რაც საშუალებას აძლევს დახვეწილ საბრძოლო ტაქტიკას, დაუყოვნებლივ ადაპტირებას. მტერი. მანევრები ბრძოლის ველზე სარგებლობისთვის და პირობების შეცვლის შესახებ.

ხელოვნური ინტელექტის დახმარებით დამიზნებისა და ნავიგაციის მიღწევები ასევე აუმჯობესებს ეფექტურობის პერსპექტივებს ტაქტიკური და სტრატეგიული თავდაცვის სისტემების ფართო სპექტრში, განსაკუთრებით სარაკეტო თავდაცვაში, სამიზნეების აღმოჩენის, თვალთვალის და იდენტიფიცირების მეთოდების გაუმჯობესებით.

მუდმივად ზრდის სიმულაციებისა და სათამაშო ინსტრუმენტების ძალას, რომლებიც გამოიყენება ბირთვული და ჩვეულებრივი იარაღის შესასწავლად. მასობრივი მოდელირება და სიმულაცია არსებითი იქნება სამიზნე სისტემების ყოვლისმომცველი მრავალდომენიანი სისტემის შესაქმნელად საბრძოლო კონტროლისა და რთული მისიებისთვის. AI ასევე ამდიდრებს მრავალმხრივ ინტერაქციას (5). AI საშუალებას აძლევს მოთამაშეებს დაამატონ და შეცვალონ თამაშის ცვლადები, რათა გამოიკვლიონ როგორ შეიძლება გავლენა იქონიოს დინამიურმა პირობებმა (იარაღმა, მოკავშირეთა მონაწილეობა, დამატებითი ჯარები და ა.შ.) შესრულებასა და გადაწყვეტილების მიღებაზე.

სამხედროებისთვის ობიექტის იდენტიფიკაცია ხელოვნური ინტელექტის ბუნებრივი ამოსავალი წერტილია. უპირველეს ყოვლისა, საჭიროა თანამგზავრებიდან და თვითმფრინავებიდან შეგროვებული სურათებისა და ინფორმაციის მზარდი რაოდენობის ყოვლისმომცველი და სწრაფი ანალიზი, რათა იპოვოთ სამხედრო მნიშვნელობის ობიექტები, როგორიცაა რაკეტები, ჯარების გადაადგილება და სხვა დაზვერვასთან დაკავშირებული მონაცემები. დღეს ბრძოლის ველი მოიცავს ყველა ლანდშაფტს - ზღვას, ხმელეთს, ჰაერს, სივრცეს და კიბერსივრცეს - გლობალური მასშტაბით.

კიბერსივრცეროგორც არსებითად ციფრული დომენი, ის ბუნებრივად შეეფერება AI აპლიკაციებს. თავდასხმის მხრივ, AI-ს შეუძლია დაეხმაროს ცალკეული ქსელის კვანძების ან ინდივიდუალური ანგარიშების პოვნაში და მიზანში შეგროვების, ჩაშლის ან დეზინფორმაციის მიზნით. კიბერშეტევები შიდა ინფრასტრუქტურასა და სამეთაურო ქსელებზე შეიძლება დამღუპველი იყოს. რაც შეეხება თავდაცვას, ხელოვნური ხელოვნური ინტელექტი დაგეხმარებათ აღმოაჩინოს ასეთი შეჭრა და აღმოაჩინოს დესტრუქციული ანომალიები სამოქალაქო და სამხედრო ოპერაციულ სისტემებში.

მოსალოდნელი და საშიში სიჩქარე

თუმცა, გადაწყვეტილების სწრაფი მიღება და სწრაფი შესრულება შეიძლება არ გამოგადგებათ. ეფექტური კრიზისის მართვისთვის. ხელოვნური ინტელექტისა და ავტონომიური სისტემების უპირატესობებმა ბრძოლის ველზე შესაძლოა დრო არ მისცეს დიპლომატიას, რომელიც, როგორც ისტორიიდან ვიცით, ხშირად წარმატებული იყო, როგორც კრიზისის თავიდან აცილების ან მართვის საშუალება. პრაქტიკაში, ტემპის შენელება, პაუზა და მოლაპარაკების დრო შეიძლება იყოს გამარჯვების გასაღები, ან თუნდაც კატასტროფის თავიდან აცილება, განსაკუთრებით მაშინ, როდესაც ბირთვული იარაღია სასწორზე.

ომისა და მშვიდობის შესახებ გადაწყვეტილებები არ შეიძლება დარჩეს წინასწარმეტყველურ ანალიტიკაზე. არსებობს ფუნდამენტური განსხვავებები, თუ როგორ გამოიყენება მონაცემები სამეცნიერო, ეკონომიკური, ლოგისტიკური და პროგნოზირებადი მიზნებისთვის. ადამიანური ქცევა.

ზოგიერთმა შეიძლება აღიქვას AI, როგორც ძალა, რომელიც ასუსტებს ორმხრივ სტრატეგიულ მგრძნობელობას და ამით ზრდის ომის რისკს. შემთხვევით ან განზრახ დაზიანებულმა მონაცემებმა შეიძლება აიძულოს ხელოვნური ინტელექტის სისტემები გაუთვალისწინებელი ქმედებების შესრულებამდე, როგორიცაა არასწორი იდენტიფიკაცია და არასწორი სამიზნეების დამიზნება. ომის ალგორითმების შემუშავების შემთხვევაში პოსტულირებული მოქმედების სიჩქარე შეიძლება ნიშნავდეს ნაადრევ ან თუნდაც არასაჭირო ესკალაციას, რაც აფერხებს კრიზისის რაციონალურ მართვას. მეორეს მხრივ, ალგორითმები ასევე არ დაელოდებიან და ახსნიან, რადგან ისინი ასევე სწრაფია.

შემაშფოთებელი ასპექტი ხელოვნური ინტელექტის ალგორითმების ფუნქციონირება ასევე ჩვენ მიერ ცოტა ხნის წინ წარმოდგენილი MT. ექსპერტებმაც კი არ იციან ზუსტად როგორ მიგვიყვანს ხელოვნური ინტელექტი იმ შედეგებამდე, რასაც ჩვენ ვხედავთ გამომავალში.

ომის ალგორითმების შემთხვევაში, ჩვენ არ შეგვიძლია მივიღოთ ასეთი იგნორირება ბუნების შესახებ და როგორ „აზროვნებენ“ ისინი. ჩვენ არ გვინდა შუაღამით გაღვიძება ბირთვული აფეთქებებით, რადგან „ჩვენმა“ ან „მათი“ ხელოვნურმა ინტელექტმა გადაწყვიტა, რომ დროა საბოლოოდ მოგვარდეს თამაში.

ახალი კომენტარის დამატება