Ново проучване показва, че ИИ не притежава човешката способност да

...
Ново проучване показва, че ИИ не притежава човешката способност да
Коментари Харесай

Учени идентифицираха фундаменталните разлики в разсъжденията на хората и ИИ

Ново изследване демонстрира, че ИИ не има човешката дарба да основава креативен умствени връзки, което е сигнален сигнал за метода, по който използваме ИИ инструментите.

Големите езикови модели не са способни на същинско нереално мислене, обобщиха откривателите. За разлика от хората, които елементарно разпознават дълбоките закономерности, изкуственият разсъдък е стеснен до незадълбочено различаване на модели. Това е изключително явно при дилемите за прилика – там, където хората интуитивно схващат общите правила, невронните мрежи непрекъснато позволяват неточности. Това може да бъде проблем, да вземем за пример при потреблението на ИИ в юридическата процедура.

В изследването е оценена способността на огромните езикови модели да конструират аналогии. Резултатите демонстрираха, че при решаването на елементарни задания с последователности от букви и числови матрици, при които се изисква да се дефинира изчезналият детайл, хората показват непрекъснато високи резултати. Но изкуственият разсъдък мъчно се оправя с това.

Разликата сред хората и изкуствения разсъдък става още по-очевидна при решаването на задания за прилика на истории. Езиковите модели демонстрират две основни ограничавания – взаимозависимост на резултатите от последователността на препоръчаните въпроси и податливост към механично перифразиране вместо към логичен разбор.

GPT-4 се оправя с простите буквени аналогии, при които би трябвало да се размени последната писмен знак в дадена поредност. Например, в случай че е заложено превръщане на „ abcd “ в „ abce “, моделът вярно трансформира „ ijkl “ в „ ijkm “. Но по-сложните правила, като да вземем за пример премахването на повтарящи се букви, са по-слабо разбираеми за ИИ. Когато се изисква да се преобразува „ abbcd “ в „ abcd “ и да се приложи същото предписание към „ ijkkl “, системата постоянно прави неточности и не съумява да получи верния отговор „ ijkl “. Хората нямат такива проблеми.

Учените са стигнали до извода, че моделите на изкуствения разсъдък не имат способността за „ нулево образование “ (zero-shot learning) – т.е. те не могат вярно да проучват данните от категории, които не са били в учащата извадка, и да ги класифицират въз основа на заложения въпрос.

За разлика от хората, езиковите модели не могат да извеждат общи правила от съответните модели. Те са положителни в разпознаването и съпоставянето на шаблони, само че не са положителни в тяхното обобщаване. Повечето ИИ системи са подвластни от данните – колкото по-голяма е учащата извадка, толкоз повече модели могат да разпознават. Но разпознаването на шаблони и абстрахирането са радикално разнообразни. Ключовият фактор тук не е количеството на наличните данни, а методът за тяхната обработка и разбор.

Това е значимо да вземем за пример в региона на правото, където изкуственият разсъдък се употребява за разбор на законите и правене на присъди. Поради това ограничаване моделът може да не ползва вярно прецедентите към новите случаи.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР