მოუწოდებს მეთვალყურეობას, რათა თავიდან აიცილოს ხელოვნური ინტელექტის დისკრიმინაცია

ექსპერტთა ჯგუფის აზრით, უნდა შეიქმნას მეთვალყურეობა ხელოვნური ინტელექტისა და სხვა ავტომატიზირებული სისტემების შესამოწმებლად, რათა თავიდან იქნას აცილებული დისკრიმინაცია და ცუდი გადაწყვეტილების მიღება.

მოუწოდებს მეთვალყურეობას, რათა თავიდან აიცილოს ხელოვნური ინტელექტის დისკრიმინაცია

ანგარიში ლონდონის ალან ტურინგის ინსტიტუტისა და ოქსფორდის უნივერსიტეტის გუნდის მიერ მოწოდებული დამოუკიდებელი ორგანოს შექმნას შეიქმნა იმისათვის, რომ გამოიძიოს და დააკვირდეს, თუ როგორ იღებენ ეს სისტემები გადაწყვეტილებებს, რომელთაგან ბევრმა შეიძლება მასიურად იმოქმედოს ადამიანზე საარსებო წყარო.

ხელოვნური ინტელექტის ალგორითმების ეკონომიკური ღირებულებიდან გამომდინარე, ამ სისტემების ტექნიკური დეტალები მჭიდროდ დაცული საიდუმლოა ინდუსტრიაში და იშვიათად განიხილება საჯაროდ. თუმცა, მკვლევარების თქმით, დამოუკიდებელ ორგანოს შეეძლება წარმოადგინოს ის პირები, რომლებიც გრძნობენ, რომ დისკრიმინაციას განიცდიდნენ ხელოვნური ინტელექტის სერვისის მიერ.

იხილეთ დაკავშირებული 

ტვინი ხელოვნური ინტელექტის წინააღმდეგ: AI კვლავ ანადგურებს კაცობრიობას
მთავრობა არ არის მზად ხელოვნური ინტელექტის გავლენისთვის, აცხადებენ დეპუტატები
რა არის AI? ათი რამ, რაც უნდა იცოდეთ ხელოვნური ინტელექტის მომავლის შესახებ

”ის, რაც ჩვენ გვსურს ვიხილოთ, არის სანდო მესამე მხარე, შესაძლოა მარეგულირებელი ან ზედამხედველობის ორგანო, რომელსაც ექნება უფლება შეამოწმოს და აუდიტის ალგორითმები, რათა მათ შეეძლოთ შევიდნენ და ნახონ, არის თუ არა სისტემა რეალურად გამჭვირვალე და სამართლიანი,” - თქვა მკვლევარმა სანდრამ. ვახტერი.

გუნდი, რომელშიც ასევე შედიან ბრენტ მიტელშტადტი და ლუჩიანო ფლორიდი, ამტკიცებს, რომ მიუხედავად იმისა, რომ ხალხი შეუძლია გაასაჩივროს ხელოვნური ინტელექტის მიერ მიღებული ნებისმიერი ხარვეზიანი გადაწყვეტილება, არსებული დამცავი კანონები მოძველებულია და არაეფექტური.

გაერთიანებული სამეფოს მონაცემთა დაცვის აქტი საშუალებას აძლევს პირებს გააპროტესტონ AI მიღებული გადაწყვეტილებები, თუმცა კომპანიებს არ უწევთ ინფორმაციის გამოქვეყნება, რომელსაც ისინი კომერციულ საიდუმლოდ მიიჩნევენ. ეს ამჟამად მოიცავს კონკრეტულად როგორ მივიდა AI ალგორითმი მიღებულ გადაწყვეტილებამდე, რის გამოც ხალხი სიბნელეში ტოვებს თუ რატომ უარყვეს საკრედიტო ბარათის განაცხადი ან შეცდომით ამოიღეს საარჩევნო რეესტრიდან.

ახალი მონაცემთა დაცვის ზოგადი რეგულირების (GDPR) კანონმდებლობა 2018 წელს ჩამოვა ევროპის წევრ ქვეყნებში და დიდ ბრიტანეთში და გვპირდება, რომ უფრო მეტი გამჭვირვალობა შემატებს AI გადაწყვეტილებების მიღებას. თუმცა, მკვლევარები ამტკიცებენ, რომ ის ემუქრება "უკბილო" და პოტენციურ მსხვერპლს არ მისცემს საკმარის იურიდიულ დარწმუნებას.

„არსებობს იდეა, რომ GDPR უზრუნველყოფს ანგარიშვალდებულებას და გამჭვირვალობას ხელოვნური ინტელექტის მიმართ, მაგრამ ეს საერთოდ არ არის გარანტირებული“, - თქვა მიტელშტადტმა. ”ეს ყველაფერი დამოკიდებულია იმაზე, თუ როგორ განიმარტება იგი მომავალში ეროვნული და ევროპული სასამართლოების მიერ.”

ანგარიშის მიხედვით, მესამე მხარეს შეუძლია შექმნას ბალანსი კომპანიის შეშფოთებას შორის სავაჭრო საიდუმლოების გაჟონვის თაობაზე და უფლებას, რომ ინდივიდებმა იცოდნენ, რომ მათ სამართლიანად ეპყრობოდნენ.

მოხსენება განიხილავდა გერმანიასა და ავსტრიაში არსებულ შემთხვევებს, რომლებიც მიჩნეულია, რომ აქვთ ყველაზე მტკიცე კანონები ხელოვნური ინტელექტის ხელმძღვანელობით გადაწყვეტილების მიღების შესახებ. უმეტეს შემთხვევაში, კომპანიებს მოეთხოვებოდათ გადაეცათ მხოლოდ ზოგადი ინფორმაცია ალგორითმის გადაწყვეტილების პროცესის შესახებ.

„თუ ალგორითმებს ნამდვილად შეუძლიათ გავლენა მოახდინონ ადამიანების ცხოვრებაზე, ჩვენ გვჭირდება რაიმე სახის შემოწმება, რათა დავინახოთ, როგორ მიიღო ალგორითმმა რეალურად გადაწყვეტილება“, - თქვა ვახტერმა.

Microsoft-ის ბოლო მცდელობა განავითაროს ხელოვნური ინტელექტი სოციალური მედიის სივრცეში კატასტროფით დასრულდა, როდესაც მისი Tay chatbot, შექმნილია საუბრების იმიტაციისთვის, მანიპულირებულ იქნა ტვიტერში შეტყობინებებში, როგორიცაა "ჰიტლერს არაფერი დაუშავებია".

2016 წლის დეკემბერში, უხერხული ინციდენტი მოხდა, როდესაც ხელოვნური ინტელექტის მართვის საიდენტიფიკაციო სისტემა უარყო 22 წლის აზიელი მამაკაცის პასპორტის განაცხადი, რადგან გადაწყდა, რომ მას თავისი ჰქონდა დახუჭული თვალები.