უთხარით თქვენს კნუტს რას ფიქრობთ შიგნით - შავი ყუთის ეფექტი
ტექნიკა

უთხარით თქვენს კნუტს რას ფიქრობთ შიგნით - შავი ყუთის ეფექტი

ის ფაქტი, რომ მოწინავე ხელოვნური ინტელექტის ალგორითმები ჰგავს შავ ყუთს (1), რომელიც აგდებს შედეგს ისე, რომ არ გაამჟღავნოს ის, თუ როგორ მოხდა ის, ზოგს აწუხებს და აწუხებს სხვებს.

2015 წელს ნიუ-იორკში, Mount Sinai Hospital-ის კვლევით ჯგუფს სთხოვეს გამოეყენებინათ ეს მეთოდი ადგილობრივი პაციენტების ვრცელი მონაცემთა ბაზის გასაანალიზებლად (2). ეს უზარმაზარი კოლექცია შეიცავს პაციენტის ინფორმაციის ოკეანეს, ტესტის შედეგებს, ექიმის დანიშნულებებს და სხვა.

მეცნიერებმა მუშაობის პროცესში შემუშავებულ ანალიტიკურ პროგრამას უწოდეს. ის დაახლოებით 700 XNUMX ადამიანის მონაცემებზე სწავლობდა. ადამიანზე და ახალ რეესტრებში ტესტირებისას დადასტურდა, რომ ძალიან ეფექტურია დაავადების პროგნოზირებაში. ადამიანთა ექსპერტების დახმარების გარეშე მან აღმოაჩინა ნიმუშები საავადმყოფოს ჩანაწერებში, რომლებიც მიუთითებს იმაზე, თუ რომელი პაციენტია დაავადების გზაზე, როგორიცაა ღვიძლის კიბო. ექსპერტების აზრით, სისტემის პროგნოზული და დიაგნოსტიკური ეფექტურობა გაცილებით მაღალი იყო, ვიდრე ნებისმიერი სხვა ცნობილი მეთოდი.

2. სამედიცინო ხელოვნური ინტელექტის სისტემა, რომელიც დაფუძნებულია პაციენტების მონაცემთა ბაზაზე

ამავდროულად, მკვლევარებმა შენიშნეს, რომ ის იდუმალი გზით მუშაობს. აღმოჩნდა, მაგალითად, რომ იდეალურია ფსიქიკური დარღვევების აღიარებაროგორიცაა შიზოფრენია, რომელიც უკიდურესად რთულია ექიმებისთვის. ეს გასაკვირი იყო, მით უმეტეს, რომ არავის ჰქონდა წარმოდგენა, თუ როგორ ხედავდა AI სისტემა ასე კარგად ფსიქიკურ დაავადებას მხოლოდ პაციენტის სამედიცინო ჩანაწერების საფუძველზე. დიახ, სპეციალისტები ძალიან კმაყოფილი იყვნენ ასეთი ეფექტური აპარატის დიაგნოსტიკის დახმარებით, მაგრამ ისინი ბევრად უფრო კმაყოფილი იქნებოდნენ, თუ გაიგებდნენ, თუ როგორ მიდის AI თავის დასკვნებამდე.

ხელოვნური ნეირონების ფენები

თავიდანვე, ანუ ხელოვნური ინტელექტის კონცეფციის ცნობილი მომენტიდან, ხელოვნური ინტელექტის შესახებ ორი თვალსაზრისი არსებობდა. პირველი ვარაუდობდა, რომ ყველაზე გონივრული იქნებოდა ისეთი მანქანების აგება, რომლებიც მსჯელობენ ცნობილი პრინციპებისა და ადამიანური ლოგიკის შესაბამისად, რაც მათ შინაგან მუშაობას ყველასთვის გამჭვირვალე გახდის. სხვებს სჯეროდათ, რომ ინტელექტი უფრო ადვილად წარმოიქმნებოდა, თუ მანქანები ისწავლიდნენ დაკვირვებით და განმეორებითი ექსპერიმენტებით.

ეს უკანასკნელი ნიშნავს ტიპიური კომპიუტერული პროგრამირების შეცვლას. იმის ნაცვლად, რომ პროგრამისტმა დაწეროს ბრძანებები პრობლემის გადასაჭრელად, პროგრამა ქმნის საკუთარი ალგორითმი ნიმუშის მონაცემებზე და სასურველ შედეგზე დაყრდნობით. მანქანათმცოდნეობის მეთოდები, რომლებიც მოგვიანებით გადაიქცნენ დღეს ცნობილ ყველაზე მძლავრ AI სისტემებში, ახლახან გაიარეს გზა, ფაქტობრივად, თავად მანქანა პროგრამირებს.

ეს მიდგომა დარჩა ხელოვნური ინტელექტის სისტემების კვლევის მიჯნაზე 60-იან და 70-იან წლებში. მხოლოდ წინა ათწლეულის დასაწყისში, გარკვეული პიონერული ცვლილებებისა და გაუმჯობესების შემდეგ, "ღრმა" ნერვული ქსელები დაიწყო ავტომატური აღქმის შესაძლებლობების რადიკალური გაუმჯობესების დემონსტრირება. 

ღრმა მანქანათმცოდნეობამ კომპიუტერებს მიანიჭა არაჩვეულებრივი შესაძლებლობები, როგორიცაა სალაპარაკო სიტყვების ამოცნობის უნარი თითქმის ისეთივე ზუსტად, როგორც ადამიანი. ეს ძალიან რთული უნარია დროზე ადრე დაპროგრამებისთვის. მანქანას უნდა შეეძლოს საკუთარი „პროგრამის“ შექმნა ტრენინგი მონაცემთა უზარმაზარ ნაკრებებზე.

ღრმა სწავლებამ ასევე შეცვალა კომპიუტერის გამოსახულების ამოცნობა და მნიშვნელოვნად გააუმჯობესა მანქანური თარგმნის ხარისხი. დღეს ის გამოიყენება ყველა სახის ძირითადი გადაწყვეტილების მისაღებად მედიცინაში, ფინანსებში, წარმოებაში და სხვა.

თუმცა ამ ყველაფერთან ერთად თქვენ არ შეგიძლიათ უბრალოდ ჩახედოთ ღრმა ნერვულ ქსელში, რათა ნახოთ როგორ მუშაობს "შიგნით". ქსელური მსჯელობის პროცესები ჩართულია ათასობით სიმულირებული ნეირონის ქცევაში, რომლებიც ორგანიზებულნი არიან ათობით ან თუნდაც ასობით რთულად დაკავშირებულ შრეებად..

პირველი ფენის თითოეული ნეირონი იღებს შეყვანას, როგორიცაა პიქსელის ინტენსივობა გამოსახულებაში და შემდეგ ახორციელებს გამოთვლებს გამოსავლის გამოტანამდე. ისინი კომპლექსურ ქსელში გადაეცემა შემდეგი ფენის ნეირონებს - და ასე შემდეგ, საბოლოო გამომავალ სიგნალამდე. გარდა ამისა, არსებობს პროცესი, რომელიც ცნობილია, როგორც ინდივიდუალური ნეირონების მიერ შესრულებული გამოთვლების კორექტირება, რათა სასწავლო ქსელმა გამოიტანოს სასურველი შედეგი.

ძაღლის გამოსახულების ამოცნობასთან დაკავშირებული ხშირად ციტირებულ მაგალითში, ხელოვნური ინტელექტის ქვედა დონეები აანალიზებს მარტივ მახასიათებლებს, როგორიცაა ფორმა ან ფერი. უმაღლესი პირები ეხება უფრო რთულ საკითხებს, როგორიცაა ბეწვი ან თვალები. მხოლოდ ზედა ფენა აერთიანებს ყველაფერს, რაც ასახელებს ინფორმაციის სრულ კომპლექტს, როგორც ძაღლს.

იგივე მიდგომა შეიძლება გამოყენებულ იქნას სხვა ტიპის შეყვანის მიმართ, რომლებიც აძლევენ მანქანას საკუთარი თავის სწავლის საშუალებას: ბგერები, რომლებიც ქმნიან სიტყვებს მეტყველებაში, ასოები და სიტყვები, რომლებიც ქმნიან წინადადებებს წერილობით ტექსტში, ან საჭე, მაგალითად. მოძრაობები, რომლებიც აუცილებელია მანქანის მართვისთვის.

მანქანა არაფერს არ გამოტოვებს.

მცდელობა ხდება იმის ახსნა, თუ რა ხდება ზუსტად ასეთ სისტემებში. 2015 წელს Google-ის მკვლევარებმა შეცვალეს ღრმა სწავლის გამოსახულების ამოცნობის ალგორითმი ისე, რომ ფოტოების ობიექტების ნახვის ნაცვლად, მან შექმნა ან შეცვალა ისინი. ალგორითმის უკან გაშვებით მათ სურდათ გაეგოთ მახასიათებლები, რომლებსაც პროგრამა იყენებს, ვთქვათ, ჩიტის ან შენობის ამოცნობისთვის.

ამ ექსპერიმენტებმა, რომელიც საჯაროდ ცნობილია სახელწოდებით, წარმოშვა (3) გროტესკული, უცნაური ცხოველების, პეიზაჟების და პერსონაჟების საოცარი გამოსახულებები. მანქანების აღქმის ზოგიერთი საიდუმლოს გამოვლენით, როგორიცაა ის ფაქტი, რომ გარკვეული შაბლონები არაერთხელ ბრუნდება და მეორდება, მათ ასევე აჩვენეს, თუ რამდენად განსხვავდება მანქანური სწავლება ადამიანის აღქმისგან - მაგალითად, იმ გაგებით, რომ ის აფართოებს და ამრავლებს არტეფაქტებს, რომლებსაც ჩვენ უგულებელყოფთ. ჩვენი აღქმის პროცესში ფიქრის გარეშე. .

3. პროექტში შექმნილი სურათი

სხვათა შორის, მეორეს მხრივ, ამ ექსპერიმენტებმა ამოხსნა ჩვენი კოგნიტური მექანიზმების საიდუმლო. შესაძლოა, ჩვენს აღქმაში არის სხვადასხვა გაუგებარი კომპონენტი, რომელიც გვაიძულებს დაუყოვნებლივ გავიგოთ და იგნორირება გავუკეთოთ რაღაცას, მაშინ როცა მანქანა მოთმინებით იმეორებს თავის გამეორებებს „არამნიშვნელოვან“ ობიექტებზე.

სხვა ტესტები და კვლევები ჩატარდა, რათა „გაეგოთ“ მანქანა. ჯეისონ იოსინსკი მან შექმნა ინსტრუმენტი, რომელიც მოქმედებს როგორც ტვინში ჩარჩენილი ზონდი, მიზნად ისახავს ნებისმიერ ხელოვნურ ნეირონს და ეძებს სურათს, რომელიც მას ყველაზე ძლიერ ააქტიურებს. ბოლო ექსპერიმენტში აბსტრაქტული გამოსახულებები გაჩნდა ქსელის წითელზე „დათვალიერების“ შედეგად, რამაც სისტემაში მიმდინარე პროცესები კიდევ უფრო იდუმალი გახადა.

თუმცა, მრავალი მეცნიერისთვის, ასეთი კვლევა გაუგებრობაა, რადგან, მათი აზრით, სისტემის გასაგებად, რთული გადაწყვეტილებების მიღების უმაღლესი რიგის შაბლონებისა და მექანიზმების ამოცნობის მიზნით, ყველა გამოთვლითი ურთიერთქმედება ღრმა ნერვული ქსელის შიგნით. ეს არის მათემატიკური ფუნქციების და ცვლადების გიგანტური ლაბირინთი. ამ დროისთვის ჩვენთვის გაუგებარია.

კომპიუტერი არ ჩაირთვება? რატომ?

რატომ არის მნიშვნელოვანი მოწინავე ხელოვნური ინტელექტის სისტემების გადაწყვეტილების მიღების მექანიზმების გაგება? მათემატიკური მოდელები უკვე გამოიყენება იმის დასადგენად, თუ რომელი პატიმარი შეიძლება გათავისუფლდეს პირობით ვადაზე, ვის მიეცეს სესხი და ვინ დასაქმდეს. დაინტერესებულებს აინტერესებთ, რატომ მიიღეს ეს და არა სხვა გადაწყვეტილება, რა არის მისი საფუძველი და მექანიზმი.

მან აღიარა 2017 წლის აპრილში MIT Technology Review-ში. ტომი იაკკოლაMIT პროფესორი, რომელიც მუშაობს მანქანური სწავლის აპლიკაციებზე. -.

არსებობს სამართლებრივი და პოლიტიკური პოზიციაც კი, რომ ხელოვნური ინტელექტის სისტემების გადაწყვეტილების მიღების მექანიზმის შესწავლისა და გაგების უნარი ადამიანის ფუნდამენტური უფლებაა.

2018 წლიდან ევროკავშირი მუშაობს იმაზე, რომ კომპანიებს მოსთხოვონ, მიაწოდონ განმარტებები თავიანთ მომხმარებლებს ავტომატური სისტემების მიერ მიღებული გადაწყვეტილებების შესახებ. გამოდის, რომ ეს ზოგჯერ შეუძლებელია ისეთი სისტემებითაც კი, რომლებიც შედარებით მარტივი ჩანს, როგორიცაა აპები და ვებსაიტები, რომლებიც იყენებენ ღრმა მეცნიერებას რეკლამის საჩვენებლად ან სიმღერების რეკომენდაციისთვის.

კომპიუტერები, რომლებიც ამ სერვისებს აწარმოებენ, თავად პროგრამირებენ და ამას აკეთებენ ისე, როგორც ჩვენ ვერ გავიგებთ... ინჟინრებიც კი, რომლებიც ქმნიან ამ აპლიკაციებს, ვერ ახსნიან, როგორ მუშაობს ეს.

ახალი კომენტარის დამატება