Учени откриха лек срещу халюцинациите на изкуствения интелект
Изследователи от Гугъл DeepMind и Standford University показаха новаторска система, предопределена да усъвършенства точността на отговорите, генерирани от изкуствен интелект. Наречена Search-Augmented Factuality Evaluator (SAFE), тя съставлява забележителен прогрес в устрема за понижаване на явлението „ илюзия “ в AI чатботовете.
Халюцинациите са едно от най-критикуваните държания на нашумялата технология. Срещат се относително постоянно и съставляват безапелационно предоставяне на отговор от страна изкуствения разсъдък, в основата на който обаче стои фактологически погрешна информация. Казано по-просто, изкуственият разсъдък си измисля неща в опит да задоволи потребителя.
Макар че сходни фалшификации са по-малко притеснителни в генеративните приложения на AI за изображения или видеоклипове, те съставляват забележителен проблем в текстовите приложения, където точността е от първостепенно значение.
Предотвратяването на халюцинации от страна на AI е софтуерно предизвикателство и то не е елементарно. Изглежда обаче, че Гугъл DeepMind и Standford University са намерили някакъв заобиколен вид, както оповестява Marktechpost.com.
Как работи SAFE: Процесът се състои от четири стъпки.
Системата SAFE работи посредством подробен развой от четири стъпки, с цел да подсигурява достоверността на генерирания от AI текст. По създание тя ревизира обстоятелствата в дългите отговори, генерирани от чатботове с изкуствен интелект, като ги проучва, обработва и прави оценка.
Първоначално SAFE раздробява дадения отговор на обособени обстоятелства. След това сегментиране тя преработва тези обстоятелства и прави съпоставяне с данни, извлечени от търсачката на Гугъл. Системата също по този начин ревизира сходството на обособените обстоятелства с първичния въпрос. Този систематичен метод разрешава на SAFE дейно да прави оценка фактологията на дълги отговори, генерирани от чатботове с изкуствен интелект.
За да оцени ефикасността на SAFE, екипът е събрал набор от данни, наименуван LongFact, състоящ се от почти 16 000 обстоятелството. След това те са тествали SAFE в тринадесет огромни езикови модела (LLM), обхващащи четири разнообразни фамилии: Claude, Gemini, GPT-4 и PaLM-2.
В 72% от случаите SAFE дава същите резултати като човешките анотатори. В случаите на противоречие SAFE е била вярна в 76% от случаите.
Икономическа жизненост и бъдещи последствия
Един от най-убедителните аспекти на системата SAFE е нейната икономическа успеваемост. Според откривателите потреблението на SAFE за инспекция на обстоятелства е 20 пъти по-евтино, в сравнение с да се разчита на човешки анотатори. Тази досегаемост, съчетана с високата й акуратност, слага SAFE като евентуално трансформиращ инструмент за повишение на надеждността на чатботовете с изкуствен интелект в огромен мащаб.
Разработването на SAFE идва в извънредно значим миг, защото търсенето на тъкмо и надеждно наличие, генерирано от изкуствен интелект, продължава да пораства. Като се оправя непосредствено с предизвикването на халюцинацията, SAFE освен дава обещание да усъвършенства потребителското преживяване, само че и да увеличи надеждността на AI като инструмент за разпространяване на информация. Тъй като тази технология продължава да се развива, тя може да изиграе основна роля в оформянето на бъдещето на връзката и извличането на информация, ръководени от изкуствен интелект.
Халюцинациите са едно от най-критикуваните държания на нашумялата технология. Срещат се относително постоянно и съставляват безапелационно предоставяне на отговор от страна изкуствения разсъдък, в основата на който обаче стои фактологически погрешна информация. Казано по-просто, изкуственият разсъдък си измисля неща в опит да задоволи потребителя.
Макар че сходни фалшификации са по-малко притеснителни в генеративните приложения на AI за изображения или видеоклипове, те съставляват забележителен проблем в текстовите приложения, където точността е от първостепенно значение.
Предотвратяването на халюцинации от страна на AI е софтуерно предизвикателство и то не е елементарно. Изглежда обаче, че Гугъл DeepMind и Standford University са намерили някакъв заобиколен вид, както оповестява Marktechpost.com.
Как работи SAFE: Процесът се състои от четири стъпки.
Системата SAFE работи посредством подробен развой от четири стъпки, с цел да подсигурява достоверността на генерирания от AI текст. По създание тя ревизира обстоятелствата в дългите отговори, генерирани от чатботове с изкуствен интелект, като ги проучва, обработва и прави оценка.
Първоначално SAFE раздробява дадения отговор на обособени обстоятелства. След това сегментиране тя преработва тези обстоятелства и прави съпоставяне с данни, извлечени от търсачката на Гугъл. Системата също по този начин ревизира сходството на обособените обстоятелства с първичния въпрос. Този систематичен метод разрешава на SAFE дейно да прави оценка фактологията на дълги отговори, генерирани от чатботове с изкуствен интелект.
За да оцени ефикасността на SAFE, екипът е събрал набор от данни, наименуван LongFact, състоящ се от почти 16 000 обстоятелството. След това те са тествали SAFE в тринадесет огромни езикови модела (LLM), обхващащи четири разнообразни фамилии: Claude, Gemini, GPT-4 и PaLM-2.
В 72% от случаите SAFE дава същите резултати като човешките анотатори. В случаите на противоречие SAFE е била вярна в 76% от случаите.
Икономическа жизненост и бъдещи последствия
Един от най-убедителните аспекти на системата SAFE е нейната икономическа успеваемост. Според откривателите потреблението на SAFE за инспекция на обстоятелства е 20 пъти по-евтино, в сравнение с да се разчита на човешки анотатори. Тази досегаемост, съчетана с високата й акуратност, слага SAFE като евентуално трансформиращ инструмент за повишение на надеждността на чатботовете с изкуствен интелект в огромен мащаб.
Разработването на SAFE идва в извънредно значим миг, защото търсенето на тъкмо и надеждно наличие, генерирано от изкуствен интелект, продължава да пораства. Като се оправя непосредствено с предизвикването на халюцинацията, SAFE освен дава обещание да усъвършенства потребителското преживяване, само че и да увеличи надеждността на AI като инструмент за разпространяване на информация. Тъй като тази технология продължава да се развива, тя може да изиграе основна роля в оформянето на бъдещето на връзката и извличането на информация, ръководени от изкуствен интелект.
Източник: economic.bg
КОМЕНТАРИ




