Опасните халюцинации на изкуствения интелект
След появяването на софтуерни принадлежности с AI, които могат да пишат текст, популяризирането на средствата за транскрибиране е добра вест за всички, които желаят бързо да трансфорат диалозите си в писмени документи. Но транскрибиращият AI също може да халюцинира. А някои от неговите евентуални консуматори – медицинските заведения – са прекомерно чувствителни към сходни „ редакции ”.
Разработчикът OpenAI разказа своя AI инструмент за транскрипция Whisper като притежаващ „ акуратност на човешко равнище ”. Но Whisper има огромен минус: той е податлив да си измисля изречения и даже цели фрази, съгласно изявленията с повече от дузина софтуерни инженери, разработчици и университетски откриватели. Експертите споделят, че някои от измислените текстове – известни в промишлеността като халюцинации – могат да са искрено рискови.
Халюцинациите на принадлежности като Whisper са риск, защото сходен програмен продукт навлиза в голям брой промишлености по света за превод и транскрибиране на изявленията, генериране на текст и основаване на надписи за видеоклипове. По-притеснителен, съгласно експертите, е стремежът на медицинските центрове да вкарат принадлежности, основани на Whisper, с цел да транскрибират консултациите на пациенти с лекари, макар предизвестията на OpenAI, че инструментът не би трябвало да се употребява в „ области с висок риск ”.
Проблем с необятен обсег
Пълният обсег на казуса е сложен за схващане. Изследователи и инженери споделят, че постоянно се натъкват на халюцинациите на Whisper в работата си. Изследовател от Мичиганския университет, който организира изследване на обществени срещи, да вземем за пример, споделя, че е разкрил халюцинации в 8 от всеки 10 аудио транскрипции, които е инспектирал, преди да стартира да се пробва да усъвършенства модела.
Инженер по машинно образование пък показва, че в началото е разкрил халюцинации в към половината от над 100 часа транскрипции на Whisper, които е анализирал. Трети разработчик споделя, че е разкрил халюцинации в съвсем всеки един от 26 000 преписа, които е основал с Whisper.
Проблемите са налице даже при добре записани, качествени, къси и ясни аудио записи. Скорошно изследване на компютърни учени разкри 187 халюцинации в над 13 000 ясни аудио-фрагмента.
Риск от тежки последствия
Подобни неточности биха могли да имат „ в действителност тежки последствия ”, изключително в лечебните заведения, споделя Алондра Нелсън, до неотдавна началник на Службата за научна и софтуерна политика на Белия дом за администрацията на Байдън. “Никой не желае неверна диагноза ”, споделя Нелсън. Един от образците за странна здравна информация, измислена от софтуера, е за „ хиперактивирани антибиотици ” – фраза, появила се неизвестно от кое място при една от транскрипциите, направена от откривателите.
Whisper се употребява и за основаване на надписи в помощ на глухи и хора с повреден слух. Това значи, че тези хора са изложени на необикновен риск при евентуално неверни транскрипции. Глухите нямат метод да ревизират, с цел да разпознават измислиците.
Както може да се чака, специалистите, забелязали халюцинациите, приканиха OpenAI да се оправи с казуса. Говорител на компанията сподели, че компанията непрестанно изследва по какъв начин да понижи халюцинациите и прави оценка констатациите на откривателите, добавяйки, че OpenAI интегрира противоположната връзка в актуализациите на модела.
За обсега на казуса може да се съди по известността на софтуера. Инструментът е интегриран в някои версии на чатбота ChatGPT на OpenAI и е разполагаем като вградено предложение в платформите за облачни калкулации на Oracle и Microsoft, които обслужват хиляди компании по целия свят. Използва се и за транскрибиране и превод на текст на голям брой езици.
Само през последния месец една скорошна версия на Whisper беше изтеглена над 4,2 милиона пъти от AI платформата с отворен код HuggingFace. Санчит Ганди, инженер по машинно образование там, споделя, че Whisper е най-популярният модел за различаване на тирада с отворен код и е вграден във всичко – от прът центрове до гласови асистенти.
Притеснително потребление в медицината
Най-голямо терзание буди потреблението на системата в света на медицината. Болници, медицински центрове и самостоятелно практикуващи лекари търсят по какъв начин да употребяват средства за превръщане на тирада в текст, с цел да трансфорат казаното по време на обзор в списък на процедурата и определяне на лекуване. Това би трябвало да понижи потребността лекарите да пишат дълготрайно след всеки пациент.
От друга страна, за инспекция на евентуалните неточности и за рационализиране на работата на инструмента е належащо да се вършат хиляди инспекции, сверяващи казаното в записа с транскрибираното от софтуера. А това е предизвикателство заради поверителността, присъща на здравната сфера.
Тъй като срещите на пациентите с техните лекари са обект на загадка, е мъчно да се направи многостранна инспекция. Пациентите не биха желали техните диалози с медиците, които всъщност са доста интимни, да бъдат прослушвани от кого ли не.
Източник: technews.bg
Разработчикът OpenAI разказа своя AI инструмент за транскрипция Whisper като притежаващ „ акуратност на човешко равнище ”. Но Whisper има огромен минус: той е податлив да си измисля изречения и даже цели фрази, съгласно изявленията с повече от дузина софтуерни инженери, разработчици и университетски откриватели. Експертите споделят, че някои от измислените текстове – известни в промишлеността като халюцинации – могат да са искрено рискови.
Халюцинациите на принадлежности като Whisper са риск, защото сходен програмен продукт навлиза в голям брой промишлености по света за превод и транскрибиране на изявленията, генериране на текст и основаване на надписи за видеоклипове. По-притеснителен, съгласно експертите, е стремежът на медицинските центрове да вкарат принадлежности, основани на Whisper, с цел да транскрибират консултациите на пациенти с лекари, макар предизвестията на OpenAI, че инструментът не би трябвало да се употребява в „ области с висок риск ”.
Проблем с необятен обсег
Пълният обсег на казуса е сложен за схващане. Изследователи и инженери споделят, че постоянно се натъкват на халюцинациите на Whisper в работата си. Изследовател от Мичиганския университет, който организира изследване на обществени срещи, да вземем за пример, споделя, че е разкрил халюцинации в 8 от всеки 10 аудио транскрипции, които е инспектирал, преди да стартира да се пробва да усъвършенства модела.
Инженер по машинно образование пък показва, че в началото е разкрил халюцинации в към половината от над 100 часа транскрипции на Whisper, които е анализирал. Трети разработчик споделя, че е разкрил халюцинации в съвсем всеки един от 26 000 преписа, които е основал с Whisper.
Проблемите са налице даже при добре записани, качествени, къси и ясни аудио записи. Скорошно изследване на компютърни учени разкри 187 халюцинации в над 13 000 ясни аудио-фрагмента.
Риск от тежки последствия
Подобни неточности биха могли да имат „ в действителност тежки последствия ”, изключително в лечебните заведения, споделя Алондра Нелсън, до неотдавна началник на Службата за научна и софтуерна политика на Белия дом за администрацията на Байдън. “Никой не желае неверна диагноза ”, споделя Нелсън. Един от образците за странна здравна информация, измислена от софтуера, е за „ хиперактивирани антибиотици ” – фраза, появила се неизвестно от кое място при една от транскрипциите, направена от откривателите.
Whisper се употребява и за основаване на надписи в помощ на глухи и хора с повреден слух. Това значи, че тези хора са изложени на необикновен риск при евентуално неверни транскрипции. Глухите нямат метод да ревизират, с цел да разпознават измислиците.
Както може да се чака, специалистите, забелязали халюцинациите, приканиха OpenAI да се оправи с казуса. Говорител на компанията сподели, че компанията непрестанно изследва по какъв начин да понижи халюцинациите и прави оценка констатациите на откривателите, добавяйки, че OpenAI интегрира противоположната връзка в актуализациите на модела.
За обсега на казуса може да се съди по известността на софтуера. Инструментът е интегриран в някои версии на чатбота ChatGPT на OpenAI и е разполагаем като вградено предложение в платформите за облачни калкулации на Oracle и Microsoft, които обслужват хиляди компании по целия свят. Използва се и за транскрибиране и превод на текст на голям брой езици.
Само през последния месец една скорошна версия на Whisper беше изтеглена над 4,2 милиона пъти от AI платформата с отворен код HuggingFace. Санчит Ганди, инженер по машинно образование там, споделя, че Whisper е най-популярният модел за различаване на тирада с отворен код и е вграден във всичко – от прът центрове до гласови асистенти.
Притеснително потребление в медицината
Най-голямо терзание буди потреблението на системата в света на медицината. Болници, медицински центрове и самостоятелно практикуващи лекари търсят по какъв начин да употребяват средства за превръщане на тирада в текст, с цел да трансфорат казаното по време на обзор в списък на процедурата и определяне на лекуване. Това би трябвало да понижи потребността лекарите да пишат дълготрайно след всеки пациент.
От друга страна, за инспекция на евентуалните неточности и за рационализиране на работата на инструмента е належащо да се вършат хиляди инспекции, сверяващи казаното в записа с транскрибираното от софтуера. А това е предизвикателство заради поверителността, присъща на здравната сфера.
Тъй като срещите на пациентите с техните лекари са обект на загадка, е мъчно да се направи многостранна инспекция. Пациентите не биха желали техните диалози с медиците, които всъщност са доста интимни, да бъдат прослушвани от кого ли не.
Източник: technews.bg
Източник: dnesplus.bg
КОМЕНТАРИ




