Учени ще се опитат да научат AI на морал
Задачата за основаване на „ честен AI ” е извънредно сложна
(снимка: CC0 Public Domain)
Разработчикът на изкуствен интелект OpenAI отпусна безплатна помощ на учени от университета Дюк за план, наименуван „ Изследване на морала на AI ”. Грантът е част от по-голямо тригодишно финансиране от 1 милион $, ориентирано към основаване на „ честен AI ”.
Главният откривател на плана, професорът по практическа нравственос в университета Дюк, Уолтър Синът-Армстронг, не разяснява работата по плана, който се чака да завърши до 2025 година Известно е обаче, че той и сътрудника му Яна Борг преди този момент са провели проучване на капацитета на AI като „ честен GPS ”, който да оказва помощ на хората да вземат по-добри решения, отбелязва TechCrunch.
Двамата учени също по този начин сътвориха „ морално координиран ” логаритъм за взимане на решение за донорство на бъбрек и изследваха сюжети, при които хората биха предпочели AI да взема морални решения.
Целта на плана, финансиран от OpenAI, е да се обучат логаритми за „ предсказание на човешките морални преценки ” в сюжети, включващи спорове „ сред морално значими характерности в медицината, правото и бизнеса ”.
Задачата за основаване на „ честен AI ” обаче е извънредно сложна, защото актуалните AI системи се основават на статистически модели, които се образоват от закономерности в данните и не са в положение да оценят етичните концепции или да схванат претекстовете и страстите зад моралните решения.
В допълнение, AI постоянно отразява полезностите на западните, образовани и индустриализирани страни, защото данните за образование на AI идват най-вече от мрежата, където доминират публикации, подкрепящи тези възгледи. В резултат на това полезностите на доста хора не са изразени в отговорите, дадени от AI, а самият AI усвоява редица предразсъдъци.
Субективността на морала също усложнява задачата за основаване на „ честен AI ”. Философите са обсъждали достолепията на разнообразни етични теории в продължение на хиляди години и към момента не се е появила универсално използвана рамка.
Например, Claude избира кантианството, до момента в който ChatGPT клони към утилитаризма. Един логаритъм за морални преценки на хората би трябвало да вземе поради всички тези фактори, което е доста висока летва, в случай че приемем, че подобен логаритъм е вероятен.
Източник: technews.bg
КОМЕНТАРИ




