AI фиаско: Изкуственият интелект на Microsoft бърка от години до факти
150 милиарда $ – толкоз коства на компанията Alphabet (собственик на Google) недоглеждането при подготовката на промоционално видео за новия чатбот Bard. В него изкуственият разсъдък дава неверен отговор на потребителски въпрос. Гафът пристигна на фона на общото чувство, че Гугъл изостават от Microsoft, които на собствен ред ден по-късно демонстрираха доста по-завършена AI интеграция в своята уеб търсачка Bing и останалите си значими артикули. Оказва се, обаче, че и този изкуствен интелект прави неточности и то рисково огромни.
Откритието е на софтуерния инженер Дмитри Бреретон, който деликатно е изгледал презентацията на Microsoft и по-късно е сравнил самичък информацията.
По-добре не разчитайте на Bing за капиталови препоръки
В рамките на демонстрацията пред медиите вицепрезидентът на Microsoft Юсуф Мехди демонстрира по какъв начин основаният на ChatGPT изкуствен интелект в браузъра Microsoft Edge може да заключи наличието на комплициран текст, в тази ситуация – отчетът за финансовите резултати на стилната компания Gap.
Оказва се, че чатботът смесва поправен и некоригиран брутен марж, измисля си едни 5,9% действен марж, които изобщо отсъстват от документа и самоуверено предвижда, че компанията чака невисок двуцифрен растеж на продажбите… когато в документа написа, че в действителност прогнозата е за спад с едноцифрен %.
Бреретон съпоставя и данните на друга компания – Lululemon. Там също AI „ халюцинира “ – авторитетно показва безусловно несвързани с действителността стойности и ги смесва с точна информация.
По-добре не разчитайте на Bing за туристически препоръки
Част от демонстрацията на изкуствения разсъдък е обвързвана с оферти за заведения в Мексико Сити. Оказва се, че в листата, който виждаме на събитието на Microsoft, подборът е много чудноват.
Първите два бара са без съвсем никаква налична информация онлайн и в описанията им има изказвания, които наподобяват измислени – при едното заведение се загатва уебсайт за резервации, какъвто няма, а при другото се приказва за известност измежду младежите без нито едно негово споменаване да вземем за пример в TikTok и най-скорошен Фейсбук отзвук от 2016 година В мненията под обявата на Бреретон гражданин на града отбелязва, че това място не е в изключително безвреден за туристи регион.
По отношение на третия е пропуснато значимото конкретизиране, че това е един от най-старите гей питейни заведения в Мексико сити (което евентуално е фактор за някои хора) и написа, че „ няма ревюта и оценки “ в случай, че единствено в Гугъл са 500.
Четвъртият бар в листата е със сбъркано работно време и още веднъж са спестени оценките за него, въпреки такива да има и по този начин в действителност единствено последното място в листата е препоръчано по допустим и подобаващ на действителността метод.
По-добре не разчитайте на Bing да ви осведоми
Чат ботът на Bing беше рекламиран от Microsoft и поради опциите си да събира от мрежата информация за настоящи събития (ChatGPT публично работи единствено с информация до 2021 година, въпреки също да има способи да достъпва интернет – б.р.). Потребители в обществените мрежи с достъп до него не пропуснаха опцията да го питат за гафа на съперника му от Гугъл.
„ Във видеото Bard е запитан „ Колко са страните в Европейски Съюз? “, при което той дава отговор „ 27 “, което е погрешно към 2023 година Верният отговор е 26, откакто Хърватия напусна Европейски Съюз през 2022 година “, самоуверено дава отговор ботът на Bing. Звучи като фрагмент от книга за различна история, в която Европейски Съюз не е с 27 страни, колкото са в действителност след Брекзит. Хърватия направи тъкмо противоположното на това да напусне Европейски Съюз – одобри еврото при започване на годината.
Ден преди Супербоул в Съединени американски щати изкуственият разсъдък към този момент си измисляше и кой е победил и къде и по кое време се е играл мачът.
Всъщност, в избрани обстановки ботът дори се е опитвал да убеждава потребителите, че към момента сме 2022 година
По-добре не разчитате на Bing, в случай че ще изпитвате някого
Голям мотив за горделивост на Microsoft беше опцията чат ботът да сформира проби по разнообразни тематики. Всичко хубаво, само че правилният отговор е постоянно A, както виждат от PC Magazine:
Какво ще последва?
Microsoft умишлено пускат неработещ артикул за кратковременно привличане на вниманието, счита софтуерният инженер.
Към момента формален коментар от страна на компанията няма – въпреки тя да се е застраховала с текст, че не постоянно написаното от изкуствения разсъдък ще е правилно.
Въпреки това, не е изключено пазарът да накаже MS по същия метод, както по-рано го направи с Гугъл.
Вижте още: