Алгоритъмът за разпознаване на реч OpenAI Whisper страда от халюцинации
Според откривателите, системата за различаване на тирада Whisper на OpenAI от време на време страда от халюцинации, т.е. занимава се с измисляне на обстоятелства. Софтуерни инженери, разработчици и учени показаха сериозна угриженост, че тази функционалност на логаритъма за изкуствен интелект може да аргументи действителна щета, защото Whisper към този момент се употребява в медицински условия, наред с други.
Тенденцията на генеративните невронни мрежи да измислят обстоятелства, когато дават отговор на потребителски въпроси, се разисква отдавна. Странно е обаче тази функционалност да се види в логаритъма Whisper, който е предопределен за различаване на тирада. Изследователите са разкрили, че логаритъмът за различаване на речта може да включва всичко в генерирания текст — от расистки мнения до фиктивни медицински процедури. Това може да аргументи действителна щета, защото Whisper стартира да се употребява в лечебни заведения и други здравни заведения.
Изследовател от университета в Мичиган, който учи стенограмите от обществените срещи, генерирани от Wisper, открива грешки в транскрипцията на 8 от 10 аудиозаписа. Друг откривател изследва повече от 100 часа аудио, транскрибирано от Whisper, и открива грешки допълнително от половината от тях. Друг инженер сподели, че е разкрил грешки в съвсем всичките 26 000 преписа, които е основал благодарение на Wisper.
Представител на OpenAI сподели, че компанията непрестанно работи за възстановяване на качеството на своите невронни мрежи, в това число и за понижаване на броя на халюцинациите. Той също по този начин добави, че политиката на компанията не разрешава потреблението на Whisper „ в избрани контексти на взимане на решения с високи залози. “ „ Благодарим на откривателите за шерването на техните резултати “ — добави представителят на OpenAI.




