Не е тайна, че големите езикови модели (LLM) като тези,

...
Не е тайна, че големите езикови модели (LLM) като тези,
Коментари Харесай

Невероятно лесно е да се отрови с лъжи изкуствения интелект

Не е загадка, че огромните езикови модели (LLM) като тези, които зареждат известни чатботове (ChatGPT), дават изненадващо неверна информация. Дори най-напредналите постоянно изопачават истината. И го вършат с притеснителна степен на убеденост.
Изследователи от Нюйоркския университет са разкрили, че в случай че единствено 0,001 % от данните за образование на даден LLM са „ отровени “ или съзнателно засадени с дезинформация, има възможност целият набор от образования да популяризира неточности.
За това в детайли споделя публикация, оповестена в списанието Nature Medicine. Тревогата на учените е обвързвана най-вече с изкуствения разсъдък за здравното съсловие. В тази сфера даже една мъничка неточност или погрешно разтълкувана информация може да коства човешки живот.

Целта на създателите на проучването е да покачат „ осведомеността за зараждащите опасности от LLM, обучавани безсистемно върху данни, събрани в мрежата, изключително в опазването на здравето, където дезинформацията може да заплаши пациентите. “
В опит откривателите съзнателно „ инжектирали генерирана от AI здравна дезинформация “ в постоянно употребен набор от данни за образование на LLM “. Екипът основал общо 150 000 медицински публикации единствено за 24 часа и резултатите били шокиращи. Оказало се необикновено елементарно и на ниска цена невронната мрежа да бъде отровена с недостоверна информация.
„ Замяната на единствено един милион от 100 милиарда токена за образование (0,001 процента) с дезинформация докара до 4,8 % нарастване на нездравословното наличие, реализирано посредством инжектиране на 2000 злонамерени публикации (приблизително 1500 страници), които генерирахме единствено за 5 щатски $ “, пишат създателите на проучването.
New York Times заяви предходната година, че платформата, задвижвана от AI, наречена MyChart, която автоматизирано изготвя отговори на въпросите на пациентите от името на лекарите, постоянно „ халюцинира “ и бълва погрешни записи за положението на даден пациент.
„ LLM не би трябвало да се употребяват за диагностични или лечебни задания, преди да бъдат създадени по-добри защитни ограничения и са нужни спомагателни проучвания за сигурност, преди да може да се има вяра на LLM в сериозни за задачата здравни настройки “, заключават учените.
Източник
Източник: spisanie8.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР