От автономни коли до оценяване качеството на зеленчуците - навлизането

...
От автономни коли до оценяване качеството на зеленчуците - навлизането
Коментари Харесай

Кои са най-големите рискове пред компаниите, които използват изкуствен интелект

От самостоятелни коли до оценяване качеството на зеленчуците - навлизането на изкуствения разсъдък в бизнеса оказа помощ за усъвършенстването на избрана част от дилемите в доста професионални сфери, въпреки и скептицизма и терзанията на немалка част от обществото.

Италианската финансова платформа Terzo и Visual Capitalist изготвят отчет въз основа на изследване на консултантската компания McKinsey за опасностите, с които се сблъскват бизнесите, употребяващи изкуствен интелект.

Около 88% от фирмите, взели участие в изследването, удостоверяват, че новата технология ги анулира в най-малко една задача, като 39% от тях означават, че това е оказало въздействие на облагите.
 Снимка 721276
Източник: iStock

Едновременно с това обаче, повече от половината споделят, че са се сблъсквали с проблеми по време на работата си. Като максимален риск определят неточността на информацията. Именно по този начин наречените халюцинации са измежду главните проблеми на AI.

Истината и единствено истината

Според проучване на Columbia Journalism Review на база неверни или отчасти погрешни отговори, най-висок % (94%) неправилност демонстрира чатботът Grok-3 на компанията на Илон Мъск. По-малко - със 77% и 76%, са надлежно моделът Grok-2 и Gemini, а след тях са Deepseek (68%) и ChatGPT (67%). Под границата от половината отговори попадат Perplexity Pro (45%), Copilot (40%) и обикновената версия на Perplexity (37%).
 Снимка 744671
Източник: Visual Capitalist

Според специалистите езиковите модели дават отговор с " Не знам " или " Нямам информация " извънредно рядко, като вместо това избират да си измислят свои, погрешни отговори. Потребителите имат по-голям късмет да получат достоверна информация, в случай че дадат няколко варианти, в сравнение с в случай че зададат отворен въпрос, се показва в отчета.

Последиците от този проблем могат да бъдат лимитирани, в случай че фирмите отделят запас за хора, които да ревизират генерираната информация. Данните демонстрират, че близо половината от фирмите признават, че ревизират по-малко от 40% от работата, свършена от AI. Една на всеки пет компании пък преглежда сред 41% и 80%, а над 81% - едвам 37% от респондентите.

Други провокации

Следващият най-често срещан проблем, който показват 14% интервюираните бизнеси, е по този начин наречената обяснимост. Това е " способността на хората да схващат вътрешните механизми на дадена система с изкуствен интелект ".

Проблеми с персоналната поверителност имат 11% от респондентите, а с киберсигурността - всеки десети. Нарушения на интелектуалната благосъстоятелност и на нормативните изисквания докладват 8%, а предприемането на неразрешено действие - 7%.
 Снимка 696209
Източник: Явор Николов / Bing Image Creator

Последици

Липсата на инспекция на работата на изкуствения разсъдък може да докара до сериозен репутационен риск за компанията, неверни стратегически решения и неефективност.

Не е изключено и съществуването на правни последствия. Според Харвардското юридическо учебно заведение, много застрахователни компании прибавят ограничавания или изключват покритието за загуби, свързани с изкуствен интелект, посочват още в отчета.

Интегрирането на AI в работата е естествена стъпка поради развиването на технологиите. Въпреки все по-големите му благоприятни условия, контролът от страна на експерти на този стадий е належащ. Според доклада едва 54% от компаниите схващат това и работят интензивно за намаляване на неточностите, свързани с изкуствения разсъдък.
Източник: dnesplus.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР