Физик: Настоящите AI модели са в задънена улица заради 3 нерешими проблема
Според Сабине Хосенфелдер уязвимости като „ prompt injection “ и неспособността за мислене отвън данните за образование обричат настоящето потомство изкуствен интелект
В собствен разбор известният физик и теоретичен коментатор Сабине Хосенфелдер твърди, че актуалното потомство модели с изкуствен интелект (AI), в това число огромните езикови модели (LLM) и дифузионните модели за генериране на изображения, се сблъскват с три фундаментални и евентуално нерешими казуса. Тези спънки, съгласно нея, ще попречат на технологията да доближи до така наречен общ изкуствен интелект (AGI) - равнище на просветеност, сравнимо или надвишаващо човешкото.
Първият основен минус е, че актуалните AI системи са " обвързани с съответна цел ". Те са проектирани и подготвени да намират модели в избран вид данни - текст, изображения или видео - само че им липсва способността за нереално мислене, което е основно за общата просветеност.
" Това, от което се нуждаем, е устройство за нереално мислене, което може да се употребява за всевъзможни цели ", показва Хосенфелдер, изразявайки подозрение, че сегашните архитектури могат да реализират такава еластичност.
Вторият, и съгласно нея на практика нерешим проблем, е уязвимостта, известна като " prompt injection ". Това е техника, при която потребителят трансформира първичните указания на модела посредством своето въвеждане на данни. Тъй като моделите не могат фундаментално да разграничат систематичните указания от потребителските команди, те остават ненадеждни и несъответствуващи за доста сериозни задания. " Вярвам, че тази накърнимост съществено ще спъне използването на този тип AI в сериозно значими системи ", безапелационна е тя.
Третата непреодолима преграда е неспособността на моделите да мислят отвън рамките на данните, с които са подготвени. Те чудесно се оправят с интерполация - основаване на вариации на към този момент съществуваща информация, само че се провалят при екстраполация - генериране на изцяло нови концепции.
Хосенфелдер цитира образци с генератори на видео, които основават безсмислени резултати при поръчки за сюжети, които фрапантно се отклоняват от данните за образование.
" Те са положителни в обобщаването и правенето на нещо сходно на към този момент съществуващото, само че се затрудняват с всичко ново ", изяснява тя, наблягайки, че това е и най-голямата спънка пред потреблението им в науката.
Хосенфелдер преглежда и казуса с " халюцинациите " - генериране на погрешна информация, само че го счита за по-маловажен и евентуално управляем, да вземем за пример посредством образование на моделите да признават неустановеност. Фундаменталните проблеми обаче остават.
В умозаключение, физикът предвижда, че компании като OpenAI и Anthropic, които разчитат напълно на актуалната технология, скоро може да изпаднат в затруднение. По думите ѝ очакванията за големи доходи, оправдаващи високите им оценки, ще се изпарят.
Бъдещето на AGI, съгласно нея, изисква коренно друг метод, като да вземем за пример развиването на мрежи за нереално мислене или невро-символни системи.
В собствен разбор известният физик и теоретичен коментатор Сабине Хосенфелдер твърди, че актуалното потомство модели с изкуствен интелект (AI), в това число огромните езикови модели (LLM) и дифузионните модели за генериране на изображения, се сблъскват с три фундаментални и евентуално нерешими казуса. Тези спънки, съгласно нея, ще попречат на технологията да доближи до така наречен общ изкуствен интелект (AGI) - равнище на просветеност, сравнимо или надвишаващо човешкото.
Първият основен минус е, че актуалните AI системи са " обвързани с съответна цел ". Те са проектирани и подготвени да намират модели в избран вид данни - текст, изображения или видео - само че им липсва способността за нереално мислене, което е основно за общата просветеност.
" Това, от което се нуждаем, е устройство за нереално мислене, което може да се употребява за всевъзможни цели ", показва Хосенфелдер, изразявайки подозрение, че сегашните архитектури могат да реализират такава еластичност.
Вторият, и съгласно нея на практика нерешим проблем, е уязвимостта, известна като " prompt injection ". Това е техника, при която потребителят трансформира първичните указания на модела посредством своето въвеждане на данни. Тъй като моделите не могат фундаментално да разграничат систематичните указания от потребителските команди, те остават ненадеждни и несъответствуващи за доста сериозни задания. " Вярвам, че тази накърнимост съществено ще спъне използването на този тип AI в сериозно значими системи ", безапелационна е тя.
Третата непреодолима преграда е неспособността на моделите да мислят отвън рамките на данните, с които са подготвени. Те чудесно се оправят с интерполация - основаване на вариации на към този момент съществуваща информация, само че се провалят при екстраполация - генериране на изцяло нови концепции.
Хосенфелдер цитира образци с генератори на видео, които основават безсмислени резултати при поръчки за сюжети, които фрапантно се отклоняват от данните за образование.
" Те са положителни в обобщаването и правенето на нещо сходно на към този момент съществуващото, само че се затрудняват с всичко ново ", изяснява тя, наблягайки, че това е и най-голямата спънка пред потреблението им в науката.
Хосенфелдер преглежда и казуса с " халюцинациите " - генериране на погрешна информация, само че го счита за по-маловажен и евентуално управляем, да вземем за пример посредством образование на моделите да признават неустановеност. Фундаменталните проблеми обаче остават.
В умозаключение, физикът предвижда, че компании като OpenAI и Anthropic, които разчитат напълно на актуалната технология, скоро може да изпаднат в затруднение. По думите ѝ очакванията за големи доходи, оправдаващи високите им оценки, ще се изпарят.
Бъдещето на AGI, съгласно нея, изисква коренно друг метод, като да вземем за пример развиването на мрежи за нереално мислене или невро-символни системи.
Източник: dnesplus.bg
КОМЕНТАРИ




