Изкуственият интелект тревожи много хора – че може да ни

...
Изкуственият интелект тревожи много хора – че може да ни
Коментари Харесай

Математици изчислиха кога AI става опасен за хората

Изкуственият разсъдък тревожи доста хора – че може да ни остави без работа и прехранване, да лъже, да се намесва в персоналния ни живот и даже да ни навреди физически… Ново проучване дава отговор по кое време AI става в действителност рисков за хората.

Големи езикови модели като ChatGPT могат да вземат решение комплицирани математически проблеми, да поставят изпити и даже да оферират способи за разрешаване на спорове сред хора. Въпреки впечатляващите си благоприятни условия обаче, генеративният AI повдига избрани опасения: потребителите постоянно се сблъскват с неправилни отговори или евентуално рискови рекомендации.

На избран стадий от развиването си, потребният изкуствен интелект, асистент на индивида, може да се трансформира в източник на проблеми. Учени от университета Джордж Вашингтон съумяха да предскажат по кое време ще настъпи този миг, употребявайки математическа формула.

Изследването разкрива по какъв начин да се пресметна сериозната точка, в която изкуственият разсъдък минава от благонадежден помощник в непослушен „ господин Хайд ”.

Според професор Нийл Джонсън, „ преломната точка ” настава, когато изкуственият разсъдък се претрупа с информация, загуби фокус и стартира да създава неправилни или фиктивни данни – по този начин наречените халюцинации.

Разработената формула, основана на скаларни творби на вектори, регистрира наличието на поръчките и характерностите на образованието на модела, което разрешава на учените тъкмо да дефинират стъпката, на която AI става несполучлив и проблематичен.

Учените също по този начин оферират на практика ограничения за попречване на сходни „ повреди ” на AI моделите. Например, потреблението на по-точни и подобаващи думи в поръчките оказва помощ на изкуствения разсъдък да остане фокусиран.

В същото време се оказва, че учтивостта в връзката с чатбота не въздейства на качеството на отговорите му, твърдят учените. /technews.bg
Източник: dnesplus.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР