Забележителните възможности на генеративния изкуствен интелект (AI) са ясни в

...
Забележителните възможности на генеративния изкуствен интелект (AI) са ясни в
Коментари Харесай

Генеративният AI създава трудни избори за мениджърите

Забележителните благоприятни условия на генеративния изкуствен интелект (AI) са ясни сега, в който го опитате. Но забележителността също е проблем за мениджърите. По-трудно е да разберете какво да вършиме с нова технология, когато тя може да засегне толкоз доста дейности; когато приемането му зависи освен от качествата на машините, само че и от досадните хора; и когато има някои изненадващи дефекти.

Проучване след изследване разкриват капацитета на огромните езикови модели (LLM), които зареждат AI като ChatGPT за възстановяване на всевъзможни неща. LLM могат да спестят време, като генерират резюмета на срещи, проучват данни или изготвят известия за пресата. Те могат да подобрят обслужването на клиентите. Те не могат да сглобяват лавици за книги на IKEA, само че и хората не могат. Стимулиране на нововъведенията AI може даже да подтиква нововъведенията. Каран Джиротра от университета Корнел и неговите съавтори съпоставят качествата за генериране на хрумвания на най-новата версия на ChatGPT с тези на студенти в първокласен университет. Самотен човек може да измисли към пет хрумвания за 15 минути; въоръжете индивида с AI и броят им доближава до 200. Най-важното е, че качеството на тези хрумвания е по-добро, най-малко оценено от изследвания за желание за покупка за нови продуктови концепции. Такива благоприятни условия могат да сковават шефовете - когато можете да вършиме всичко, елементарно е да не вършиме нищо.

Лекотата на потребление на LLM също има плюсове и минуси. Положителната страна е, че могат да бъдат открити повече приложения за генеративен AI, в случай че повече хора го тестват. Познаването на LLMs ще накара хората да ги употребяват по-добре. Рейд Хофман, сериен вложител в изкуствен интелект, има елементарен съвет: започнете да играете с него. Ако сте помолили ChatGPT да напише хайку преди година и не сте го докосвали от този момент, имате още какво да извършите.
Реклама
Познаването може също да противодейства на човешкия инстинкт да бъде внимателен от автоматизацията. Доклад на Силианг Тонг от Технологичния университет Nanyang и неговите съавтори, оповестен през 2021 година, преди генеративният AI да е на мода, улови тъкмо това съмнение. Той сподели, че противоположната връзка, генерирана от AI, усъвършенства представянето на чиновниците повече от противоположната връзка от мениджърите хора. Обаче разкриването, че противоположната връзка идва от машина, има противоположен резултат: подкопава доверието, подклажда страхове от неустановеност на работата и утежнява представянето. Запознаването с LLM може да разсее опасенията.

Или не. Усложняващите неща са минусите в технологията. Речникът на Кеймбридж дефинира " халюцинирам " като дума на годината в символ на респект към склонността на LLM да бълват погрешна информация. Моделите се развиват бързо и би трябвало да се усъвършенстват най-малко в това отношение. Но някои проблеми се крият, съгласно нова публикация на Р. Томас Маккой от Принстънския университет и неговите съавтори. Капани Тъй като готовите модели са подготвени на интернет данни да предсказват идната дума в отговор на вероятностна основа, те могат да бъдат препънати от изненадващи неща. Вземете GPT-4, LLM зад ChatGPT, се оправя добре, като би трябвало да умножи число по 9/5 и да добави 32. Помолете го да умножи същото число по 7/5 и да добави 31 и се оправя доста по-зле. Разликата се изяснява с обстоятелството, че първото пресмятане е като да обръщате Целзий във Фаренхайт и затова е постоянно срещано в интернет; второто е рядко и по тази причина не участва доста в данните за образованието. Такива клопки ще съществуват и в патентованите модели.

На всичкото от горната страна това е на практика проблем: за компаниите е мъчно да наблюдават по какъв начин чиновниците употребяват AI. Поверителните данни могат да бъдат качени и евентуално да изтекат в следващ диалог. По-рано тази година електронният колос Samsung ограничи потреблението на ChatGPT от чиновници, откакто съгласно известията инженерите споделиха изходния код с чатбота.
Реклама
Тази композиция от суперсили, елементарност и клопки е объркваща за навигацията на шефовете. Но демонстрира няколко съществени правила. Бъдете ориентирани. Някои консултанти обичат да приказват за " метода на фара " - избиране на стеснен план, който има сигнална стойност за останалата част от организацията. Вместо да забранявате потреблението на LLMs, имайте насоки за това каква информация може да бъде сложена в тях. Бъдете наясно по какъв начин работи технологията: това не е като да карате кола и да не ви пука какво има под капака. Преди всичко, използвайте го сами. Генеративният AI може да се почувства вълшебен. Но е сложна работа да се оправиш.

2023, The Economist Newspaper Limited. All rights reserved
Свързани публикации Обслужването на клиенти става все по-лошо, както и самите клиенти 12 октомври 2023, 11:37 Как мениджърите внедряват AI в фирмите си 6 юли 2023, 08:27 От доктора до колата: кои браншове ще са най-засегнати от AI 23 юни 2023, 11:11 Nvidia е покрай това да стане първата компания за чипове с оценка от 1 трлн. $ 26 май 2023, 11:48
Източник: capital.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР