Това съобщава TechXplore.В този тест изследователите искаха да видят дали

...
Това съобщава TechXplore.В този тест изследователите искаха да видят дали
Коментари Харесай

Изкуственият интелект не успя да заблуди хората на теста на Тюринг

Това оповестява TechXplore.

В този тест откривателите желаеха да видят дали GPT-4 може да реализира равнище на просветеност и умения за диалог, при което може да заблуди хората да си мислят, че водят диалог с същински човек, а не с ИИ.

Експериментът включи 650 участници, които взаимодействаха или с действителни хора, или с GPT-4. Резултатите демонстрират, че GPT-4 е измамил участниците в 41% от случаите, до момента в който предходната версия GPT-3.5 го е направила единствено в 5-14% от случаите.

„ Не открихме доказателства, че GPT-4 може да премине теста на Тюринг “, споделиха създателите.

При такива резултати не може да се каже, че моделът GPT-4 е съумял да измами човек на теста на Тюринг, заключават учените.

Те обаче признаха цената на констатациите като еволюция на успеваемостта на машинния разговор. Те също по този начин означиха, че чатботовете въпреки всичко могат да споделят задоволително безапелационно, с цел да могат от време на време да подвеждат потребителите.
...

Прочетете целия материал в cash.bg
Източник: cash.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР