ხელოვნური ინტელექტი არ მიჰყვება მეცნიერული პროგრესის ლოგიკას
ტექნიკა

ხელოვნური ინტელექტი არ მიჰყვება მეცნიერული პროგრესის ლოგიკას

ჩვენ ბევრჯერ დავწერეთ MT-ში მკვლევარებისა და პროფესიონალების შესახებ, რომლებიც აცხადებენ მანქანური სწავლების სისტემებს „შავ ყუთებად“ (1) მათთვისაც კი, ვინც მათ აშენებს. ეს ართულებს შედეგების შეფასებას და განვითარებული ალგორითმების ხელახლა გამოყენებას.

ნერვული ქსელები - ტექნიკა, რომელიც გვაძლევს ინტელექტუალურ კონვერტირებას ბოტებს და გენიალურ ტექსტის გენერატორებს, რომლებსაც შეუძლიათ პოეზიის შექმნაც კი - რჩება გაუგებარ საიდუმლოდ გარე დამკვირვებლებისთვის.

ისინი უფრო დიდი და რთული ხდებიან, ამუშავებენ უზარმაზარ მონაცემთა ნაკრებებს და იყენებენ მასიური გამოთვლითი მასივების გამოყენებას. ეს ხდის მიღებული მოდელების გამეორებას და ანალიზს ძვირად და ზოგჯერ შეუძლებელს სხვა მკვლევარებისთვის, გარდა დიდი ბიუჯეტის მქონე დიდი ცენტრებისა.

ბევრმა მეცნიერმა კარგად იცის ეს პრობლემა. მათ შორისაა ჯოელ პინო (2), NeurIPS-ის თავმჯდომარე, რეპროდუცირებადობის მთავარი კონფერენცია. მის ხელმძღვანელობით ექსპერტებს სურთ შექმნან "განმეორებადობის საკონტროლო სია".

პინოს თქმით, იდეა არის წაახალისოს მკვლევარები, შესთავაზონ სხვებს საგზაო რუკა, რათა მათ შეძლონ უკვე შესრულებული სამუშაოს ხელახლა შექმნა და გამოყენება. შეგიძლიათ გაოცდეთ ახალი ტექსტის გენერატორის მჭევრმეტყველებით ან ვიდეო თამაშის რობოტის ზეადამიანური ოსტატობით, მაგრამ საუკეთესო ექსპერტებსაც კი არ აქვთ წარმოდგენა, როგორ მუშაობს ეს საოცრება. ამიტომ, ხელოვნური ინტელექტის მოდელების რეპროდუცირება მნიშვნელოვანია არა მხოლოდ კვლევისთვის ახალი მიზნებისა და მიმართულებების იდენტიფიცირებისთვის, არამედ როგორც გამოყენების წმინდა პრაქტიკული სახელმძღვანელო.

სხვები ცდილობენ ამ პრობლემის მოგვარებას. Google-ის მკვლევარებმა შესთავაზეს „მოდელის ბარათები“, რათა დეტალურად აღწერონ, თუ როგორ მოხდა სისტემების ტესტირება, მათ შორის შედეგები, რომლებიც მიუთითებს პოტენციურ შეცდომებზე. ალენის ხელოვნური ინტელექტის ინსტიტუტის (AI2) მკვლევარებმა გამოაქვეყნეს ნაშრომი, რომელიც მიზნად ისახავს Pinot-ის რეპროდუქციულობის საკონტროლო სიის გაფართოებას ექსპერიმენტული პროცესის სხვა საფეხურებზე. "აჩვენე შენი ნამუშევარი", - მოუწოდებენ ისინი.

ზოგჯერ ძირითადი ინფორმაცია აკლია, რადგან კვლევითი პროექტი ეკუთვნის, განსაკუთრებით კომპანიაში მომუშავე ლაბორატორიებს. თუმცა, უფრო ხშირად ეს არის ცვალებად და უფრო რთული კვლევის მეთოდების აღწერის შეუძლებლობის ნიშანი. ნერვული ქსელები ძალიან რთული სფეროა. საუკეთესო შედეგის მისაღებად ხშირად საჭიროა ათასობით „ღილაკების და ღილაკების“ დახვეწა, რასაც ზოგი „შავ მაგიას“ უწოდებს. ოპტიმალური მოდელის არჩევანი ხშირად დაკავშირებულია ექსპერიმენტების დიდ რაოდენობასთან. მაგია ძალიან ძვირდება.

მაგალითად, როდესაც ფეისბუქი ცდილობდა გაემეორებინა AlphaGo-ს მუშაობა, სისტემა, რომელიც შემუშავებული იყო DeepMind Alphabet-ის მიერ, ამოცანა ძალიან რთული აღმოჩნდა. ფეისბუქის თანამშრომლების თქმით, უზარმაზარი გამოთვლითი მოთხოვნები, მილიონობით ექსპერიმენტი ათასობით მოწყობილობაზე მრავალი დღის განმავლობაში, კოდის ნაკლებობასთან ერთად, სისტემას "ძალიან ართულებდა, თუ არა შეუძლებელს, ხელახლა შექმნა, ტესტირება, გაუმჯობესება და გაფართოება".

როგორც ჩანს, პრობლემა სპეციალიზირებულია. თუმცა, თუ უფრო მეტს დავფიქრდებით, შედეგებისა და ფუნქციების განმეორებადობის პრობლემების ფენომენი ერთსა და მეორე კვლევით ჯგუფს შორის ძირს უთხრის ჩვენთვის ცნობილ მეცნიერებისა და კვლევის პროცესების ფუნქციონირების მთელ ლოგიკას. როგორც წესი, წინა კვლევის შედეგები შეიძლება გამოყენებულ იქნას შემდგომი კვლევებისთვის, რაც ხელს უწყობს ცოდნის, ტექნოლოგიების განვითარებას და ზოგადად პროგრესს.

ახალი კომენტარის დამატება