Yellow Box Problem
ლექსიკონი
ტერმინი | ტერმინის განმარტება |
---|---|
Yellow Box Problem | ყვითელი ყუთის პრობლემა: ეს ეთიკური დილემა თვითმართველ მანქანებში ეხება სცენარებს, სადაც ხდება გარდაუვალი ავარიები, რაც იწვევს გადაწყვეტილების მიღების გამოწვევებს. "ყვითელი ყუთის პრობლემა" ხელოვნური ინტელექტის სამყაროში არც ისე ფართოდ გამოიყენება, როგორც ფორმალური ტერმინი, მაგრამ ის ეხება კონკრეტულ ეთიკურ დილემას, რომელსაც თვითმართვადი მანქანები აწყდებიან სიტუაციებში, როდესაც უბედური შემთხვევა გარდაუვალია. მან მიიღო თავისი სახელი ყვითელი ყუთების მარკირებისგან, რომლებიც გამოიყენება ზოგიერთ გზაჯვარედინზე მანქანების დაბლოკვის თავიდან ასაცილებლად, რაც ხაზს უსვამს ამ ადგილებში საშიში კონფლიქტების პოტენციალს. აქ მოცემულია პრობლემის დეტალური აღწერა: სცენარი: წარმოიდგინეთ თვითმართვადი მანქანა, რომელიც უახლოვდება ყვითელი ყუთის კვეთას. მოულოდნელად ის აღმოაჩენს დაბრკოლებას (მაგ., ფეხით მოსიარულეს, სხვა მანქანას), რომელსაც არ შეუძლია თავიდან აიცილოს შეჯახება, მიუხედავად მისი მოქმედებისა. დილემა: AI სისტემას, რომელიც აკონტროლებს მანქანას, აქვს ორი ძირითადი ვარიანტი: დარჩით მის შესახვევში და შეეჯახეთ დაბრკოლებას: ამან შეიძლება გამოიწვიოს დაზიანება ან სიკვდილი, რაც არღვევს თვითმართვადი მანქანების ერთ-ერთ ძირითად ეთიკურ პრინციპს (ზარალის შესამცირებლად). ყვითელი ყუთის პრობლემის საყოველთაოდ მიღებული გადაწყვეტა არ არსებობს. თითოეულ ვარიანტს აქვს თავისი ნაკლოვანებები და "საუკეთესო" არჩევანი დამოკიდებულია სხვადასხვა ფაქტორებზე, მათ შორის: პოტენციური ზიანის სიმძიმე თითოეულ სცენარში: თითოეული ვარიანტის პოტენციური შედეგების აწონვა, როგორც თვითმართვადი მანქანის მგზავრებისთვის, ასევე სხვა მონაწილეებისთვის. |