Google Assistant може да стреля с оръжие: Какво следва оттук нататък?
За положително или неприятно, Гугъл Assistant може да прави всичко. От елементарни задания като включване на осветлението и записване на напомняния до безапелационно подражаване на човешка тирада. Изкуственият разсъдък е толкоз кадърен, че чак става плашещ. Неговата последна (неофициална) дарба е точно такава. Наскоро инженерът и откривател Александър Ребен научи Гугъл Assistant да стреля с оръжие. За благополучие, жертвата е ябълка, а не живо създание. 30-секундното видео, наречено единствено „ Гугъл стреля “ демонстрира по какъв начин Ребен споделя „ Ок, Гугъл, активирай оръжието “. След това помощникът натиска спусъка. На процедура не се случва нищо изключително. Целта на това видео обаче е по-скоро да предизвика полемики за рестриктивните мерки, които би трябвало да бъдат сложени на изкуствения разсъдък.
Прочетете още: Гугъл Duplex: система за AI ще извършва задания по телефона
Според Ребен по-важно е да се обсъдят опциите, а не фокусът да се слага върху съответното устройство. За този план той употребява Гугъл Assistant, само че за същата цел е можел да послужи и Amazon Echo да вземем за пример. Освен това устройството, което ще натисне спусъка може да бъде и масажен стол или машина за сладолед. В последна сметка Ребен избира да въоръжи Assistant по отношение на терзанията по отношение на неотдавна показаните благоприятни условия на Duplex AI на Гугъл.
Във видеото въпреки всичко Ребен е този, който споделя на асистента да „ задейства оръжието “. Той е този, който носи отговорността за действието. Но в свят, в който AI e задоволително образован да планува нашите потребности и да се грижи за нашия комфорт всеки ден, не е мъчно да си представим миг, когато цифровите асистенти ще могат да убиват хората, които ни разстройват, стига да имат достъп до оръжия. В подобен случай кой в действителност ще носи отговорност за тези дейности?
Лесно е да се каже, че би трябвало да се блокира достъпът на изкуствения разсъдък до рискови устройства. Но ние към този момент сме ги поставили в колите си, те имат място в оръжейната промишленост, както и на доста други места, за които даже не сме се замисляли. Ние можем да пожелаваме фирмите да подсигуряват, че техните технологии няма да могат да предизвикват щета, само че е невероятно да се възнамерява всичко – даже евентуалните неточности, които AI може да допусне.
„ Част от посланието за мен включва непреднамерените последици от технологии и безсмислието на това да се обмисля всеки вероятен сюжет “, разяснява Ребен. От Гугъл може би даже не са си и представяли, че асистентът ще бъде употребен за стреляне с оръжие. Но с цел да реализира това, на инженера са му би трябвало елементи, които са били налични в неговото студио.
Ребен не за първи път изследва опциите на изкуствения разсъдък. Този план обаче е изключително провокативен, защото подтиква фена да си показа какво може да се случи, в случай че програмисти решат да компрометират AI. Сега повече от всеки път би трябвало да се разиска по какъв начин и дали можем да предотвратим случаи, в които интелигентни машини ще могат да убиват.
Източник: pcworld.bg
КОМЕНТАРИ




