Тестът на Тюринг вече не е релевантен критерий за наличие

...
Тестът на Тюринг вече не е релевантен критерий за наличие
Коментари Харесай

Защо Chat GPT 3.5 и 4 не могат да преминат теста на Тюринг?

Тестът на Тюринг към този момент не е съответстващ аршин за съществуване на умишлен изкуствен интелект. Той е основан през 50-те години на предишния век и към оня миг е оневинен, само че сега имаме потребност от проверка на това какви са критериите за това един изкуствен интелект да бъде общоприет, т.е. като нас. Това сподели футурологът доцент доктор Мариана Тодорова в предаването " Сценарий от бъдещето " на Радио " Фокус " с водещ Ива Дойчинова.

Алан Тюринг твърди, че в случай че изкуственият разсъдък може да заблуди човек, че поддържа връзка с различен човек, той може да се смята за общоприет. Критериите, върху които този тест се базира обаче, съгласно доста учени би трябвало да бъдат осъвременени и съобразени с интелигентността на актуалните машини. Според някои новият Тест на Тюринг би трябвало да е в положение да издържи студентски изпит. " Ние видяхме, че ChatGPT 3.5 устоя изпити по право, по медицина, по счетоводство, тъй че това към този момент не е задоволителен аршин. Може би по-добрият вид на тестване е дали изкуственият разсъдък може да действа в някакъв миг от време като човек – да стане, да отиде до кафе машината, да си направи кафе, да прочете една вест, да я пояснява, да си сложи цел и да я извърши ", разясни доцент Тодорова.

Тя описа за опит, който организират учени от Калифорнийския университет. Те образуват група от 650 индивида и ги слагат в среда, в която има един оценител, двама индивида, с които той поддържа връзка, а " третият " детайл е изкуствен интелект. Целта е да се види кой от тези езикови модели ще премине Теста на Тюринг, т.е. ще успее да заблуди оценителяц че е човек. " ChatGPT 3 и 4 се провалят тотално, само че не тъй като те не са положителни в отговорите си, а просто тъй като ние към този момент имаме умствената настройка какво да чакаме. Когато виждаме една извънредно добре структурирана информация по избран образец, ние много ясно разбираме, че това е ChatGPT 3 или 4. Чатботът, който съумява да заблуди хората, е ELIZA, действителен още от 1964 година ( и поради, който белгиец се самоуби преди няколко месеца). Това се случва не тъй като той е идеален, а тъй като в противен случай, не е политически правилен, от време на време е доста недодялан и  греши доста, по тази причина участниците в опита са на мнение, че ИИ не би могъл да бърка чак толкоз ", описа доцент Тодорова.
Източник: varna24.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР