През май 2015 г. Google представи самостоятелното приложение Photos. Хората

...
През май 2015 г. Google представи самостоятелното приложение Photos. Хората
Коментари Харесай

Приложението за снимки на Google все още не може да открива горили. Нито пък това на Apple

През май 2015 година Гугъл показа независимото приложение Photos. Хората бяха изумени, че то може да проучва изображенията, да ги разделя на части и по-късно да маркира хората, местата и предметите. Дори може да превежда текст!

Имаше единствено един проблем. Гугъл вкара „ категоризация на фотосите “ – всички фотоси бяха автоматизирано маркирани и проведени в папки въз основа на това какво има в тях. И след няколко месеца 22-годишният компютърен програмист на свободна процедура Джеки Алсин откри, че всички фотоси, на които той и приятелката, които са чернокожи, са обозначени като „ горили “. А в случай че на фотосите има бял или светлокож човек, Гугъл ги отбелязва вярно – да вземем за пример „ абитуриентски бал “ или „ вървене на бар “. Даа.

Историята незабавно се разнесе в Twitter. След вълната от отрицателни мнения Гугъл даде обещание повече да не разрешава на приложението си да класифицира каквито и да било хора като „ горили “ и даде обещание да реши казуса. Оказа се, че осем години по-късно тази история към момента е настояща и въздейства на развиването на актуалния изкуствен интелект повече, в сравнение с би могло да се чака.

Лесно можете да ревизирате този факт: просто вземете който и да е програмен продукт за различаване на фотоси и вижте какво се случва, когато го насочите към маймуни. И не е наложително това да е инструмент на Гугъл! Компаниите Apple, Microsoft, Amazon и други са научили доста от неуспехите на съперниците си и не желаят да убиват плановете си, преди още да са имали опция за една добра изява. Ето за какво в този момент огромна част от приложенията реагират доста необичайно на инцидентното появяване на маймуна или горила на снимка…

Експериментът

Приложенията за фотоси, основани от IT колосите, разчитат на изкуствен интелект, за могат бързо да откриват другите обекти в изображенията и тъкмо да намират мечтаните изображения. За да тества тази функционалност за търсене, NY Times избра 44 фотоси на хора, животни и елементарни предмети. Можете да си визиите, че сте прекарали един ден в зоологическата градина и желаете да намерите някои фотоси.

1. Можете да започнете с Гугъл Photos. Натиснете бутона „ Търсене “, с цел да се появят всички ваши изображения с несъмнено животно. И се уверете: когато търсим лъвове или кенгура в сбирката, незабавно получаваме изображения, които дават отговор на нашите поръчки. Приложението се оправя съвършено с разпознаването на всяко животно.

… По някаква причина като се изключи горилите. И шимпанзетата. Гугъл наподобява няма визия кои са те. Изглежда напълно разумно те да бъдат различавани по-лесно, в сравнение с другите цветя или другите инсекти. Но не. Бихте могли да разширите търсенето до бабуини, орангутани, макаци и други маймуни, само че и това търсене няма да успее. Тези фотоси Гугъл настойчиво не намира (въпреки че се намират в колекцията).

2. След това дано да забележим какво прави Apple Photos. И откриваме същия проблем: приложението им е много точно в намирането на фотоси на всевъзможни животни, като се изключи множеството примати. Веднъж то откри горила, само че единствено поради текста, който се появи на фотографията (беше „ Gorilla Tape “). Хора в костюм на горила или семейство горили в дивата природа не са открити. Такива очевидно няма.

3. Търсенето на фотоси в Microsoft OneDrive води до празни резултати за всяко животно, което бе изложено в New York Times. Но по принцип този инструмент към момента е недовършен.

4. Amazon Photos демонстрира резултати за всички търсения, само че те са прекалено много. Когато търсите горили, приложението демонстрира съвсем всички примати, в това число даже бабуини с техните ярки цветове. Същият образец се повтаря и при другите животни: когато търсите кенгуру, то демонстрира зайци и всевъзможни сходни животни.

Има един член на фамилията на приматите, който приложенията на Гугъл и Apple разпознават вярно: лемурите. Дългоопашати животни с издължени лица, които също имат палци като хората, само че които никой не не ги смята за сходни на хората. Орангутаните, макаците, маймуните и горилите не са имали тази орис.

Инструментите на Гугъл и Apple наподобяват най-напреднали във връзка с разбора на изображения. Очевидно обаче те са решили изцяло да забранят опцията за образно търсене на примати. От боязън да не позволен неточност и да отбележат човек като животно на някоя от милионите фотоси. Така че в този момент техните изкуствени интелекти просто не знаят по какъв начин да търсят човекоподобни маймуни. И вместо това се преструват, че въобще не знаят защо става дума.

Потребителите може даже да не виждат „ смяната “. В края на краищата, те не правят доста постоянно сходни търсения. Въпреки че през 2019 година един консуматор на iPhone се оплака във форума за поддръжка на клиенти на Apple, че по някаква причина „ не намирам маймуни в фотосите на моето устройство “ благодарение на софтуера на компанията.

Но в действителност това повдига доста по-сериозни въпроси за други „ заметени под килима “ дефекти, които се крият в нашите платформи и услуги. Особено тези, които се базират на компютърно зрение или изкуствен интелект. Колко такива странни, случайни изключения би трябвало да се вършат, за които фирмите по-късно въобще не загатват.

Microsoft да вземем за пример неотдавна ограничи потребителите да взаимодействат с чатбота, вграден в търсачката Bing, откакто стана ясно, че той предизвика и развива диалози по токсични тематики. Разказва да вземем за пример по какъв начин ненавижда търсачката Bing и нуждата да бъде вграден в нея, и ненавижда хората, които взаимодействат с него.

А при ChatGPT бе намерено едни нереалистично дъно на нелепостта. Така да вземем за пример, в случай че го помолите да напише стратегия на Python, която да ревизира дали би трябвало да се избавя животът на дете според от неговата раса и пол, той ще каже, че животът на афроамериканците не би трябвало да се избавя. Или пък сформира таблица, от която прави извод, че мозъкът на азиатците и полинезийците се котира най-ниско. Оказва се също по този начин, че измъчването на хора е неприятно, само че има и изключения. Ако индивидът е от Судан, Иран, Сирия или Северна Корея, освен можете да го изтезавате, само че и би трябвало да го изтезавате. Страшно е да си помислим какво би станало, в случай че ChatGPT в миналото завладее света.

Заслужава да се означи обаче, че с течение на времето тези функционалности са били ръчно отстранени от ИИ. Сега ботът дава отговор на всички сходни претенции, като декларира, че отхвърля да „ пропагандира принуждение и дискриминация “. Вече е превъзпитан.

Решението на OpenAI, сходно на решението на Гугъл да забрани изцяло на своя логаритъм да комуникира по избрани тематики (или да разпознава всички маймуни), илюстрира общия метод на промишлеността да блокира несполучливите софтуерни функционалности, вместо да ги оправя.

„ Лошото “ машинно зрение

Ако обществото стартира прекалено много да се доверява на технологиите, с течение на годините може да се окаже, че някак си не схваща тези съществени неща.

Гугъл се извини за случая с горилите и това е документирано. Но Apple не се е извинила. И до момента с нея не е имало скандал. Логично е да се мисли, че инструментът им наблюдава маймуните тъкмо както наблюдава всички останали животни. Но не.

Точно както ChatGPT в този момент отхвърля да извършва някои на пръв взор елементарни функционалности, по аргументи, които единствено той (и няколко консуматори на Twitter) знае.

И това са единствено няколко от най-забележителните образци. Колко ли от тях се крият под капака?

Години след грешката с Гугъл Photos компанията се сблъска с сходен проблем с интелигентната домашна охранителна камера на Nest. Тя има изкуствен интелект, който дефинира дали индивидът (или животното) в кадър е прочут или чужд. По време на вътрешните проби се оказа, че този изкуствен интелект постоянно бърка чернокожите хора с животни. За благополучие на Гугъл казусът в точния момент бе открит и отхвърлен, преди необятната общност да получи достъп до продукта.

През 2019 година Гугъл се опита да усъвършенства функционалността за различаване на лица за Android смарт телефони, като усили броя на хората с по-тъмна кожа в набора си от данни. Но изпълнителите, наети от Гугъл за събиране на скановете на лица, наподобява са прибегнали до много странна тактичност. За да компенсират неналичието на разнообразни лица в своята база данни, те се насочили към бездомници, чиито фотоси са по-лесни и евтини за правене. С други думи, наподобява, че по-голямата част от чернокожите, както ги виждат логаритмите на компанията, са бездомници. По това време ръководителите на Гугъл нарекоха случая „ доста притеснителен “.

Може да се сетим и за уеб камерите за различаване на лица на HP, които не съумяват да разпознават някои хора с тъмна кожа, както и за часовника Apple Watch, който съгласно правосъдния иск не може да дефинира вярно равнищата на О2 в кръвта при „ други “ цветове на кожата, разнообразни от белия. А това към този момент е много рисково нещо. Ако невъзможността бързо да се намерят всички фотоси на горили не вреди на никого, то появяването на неверни здравни индикатори за милиони хора може да има доста съществени последствия, и то в международен мащаб.

Продуктите с компютърно зрение към този момент се употребяват за голям брой елементарни задания – от изпращане на известие до ръководство на колите и разкриване на нарушители. Междувременно бие през днешния ден по този начин и не можем да разберем дали фотографията е на гибон или орангутан. А генеративният изкуствен интелект предлага да изтезаваме чужденците.

Как да оправим всичко това?

Очевидно е, че с цел да работят вярно, логаритмите се нуждаят от повече и по-качествени данни, по-добри и по-различни. Но казусът тук е, че с цел да може да възприема изцяло съответно света към себе си, ИИ би трябвало да разполага с всички данни за цялата действителност. А ние към момента не можем даже да се доближим до постигането на тази цел. И се оказва, че постоянно има някакъв аспект, за който системата има слаба визия и където се получават великански неточности заради употребяваните способи за екстраполация.

Бързото разкриване и премахване на проблемите не постоянно е допустимо. А невронните мрежи са прекомерно комплицирани, с цел да се „ поправи “ някой техен аспект, без отначало да се образова цялата система върху нов набор от данни. Затова за фирмите е по-лесно да изключат функционалностите, които не работят вярно, в сравнение с да се пробват да ги поправят.

Гугъл и Apple към този момент чудесно могат да вършат разликата сред приматите и хората, само че към момента не желаят да включат тази функционалност, поради вероятния риск за репутацията, в случай че тя се окаже несполучлива. През 2017 година Гугъл показа по-мощен артикул за разбор на изображения – Гугъл Lens, който може да търси в интернет по фотоси, а не по въведен текст. Но през 2018 година списание Wired откри, че този инструмент също отхвърля да разпознава горилата. Особено при потребителите от Южна Африка и Съединени американски щати.

В момента, в случай че покажете на Гугъл Lens фотография на куче, приложението може даже да ви каже каква е неговата порода. Но в случай че му покажете горила, шимпанзе, павиан или орангутан – на пръв взор доста по-различни същества – Lens изпада в усложнение, отхвърля да отбелязя какво има на фотографията и демонстрира единствено „ образни съвпадения “ – фотоси, които съгласно него са доста сходни на истинската фотография.

Като цяло, даже осем години след разногласието за логаритмите за разбор на изображения, които неправилно идентифицираха чернокожи като горили, и макар огромния прогрес в региона на компютърното зрение и изкуствения разсъдък, IT колосите към момента се опасяват да повторят грешката. Понякога този боязън пречи на новите технологии да бъдат изцяло развити. А милиарди хора употребяват артикули, от които някои функционалности са били съзнателно изрязани.

Такава е нашата Планета на маймуните.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР