Предоставихме на изкуствения интелект най-ценното си притежание – детската доверчивост
Когато даже една играчка знае за вас повече от вашата майка….
Изкуственият разсъдък все по-често е в центъра на дебата сред здравия разсъдък и маркетинговите обещания. От една страна – действителни достижения, от друга – раздута шумотевица, зад която е мъчно да се види обективната картина. За да оказват помощ за осмислянето на тази обстановка, аналитиците вкараха инструмент, наименуван AI Hype Index (може да се преведе като „ Индекс на ИИ хайпа “) – той ви дава опция бързо да разберете къде свършват обстоятелствата и стартира рекламата.
Този проблем е изключително изострен при по този начин наречените агентно-базирани ИИ системи. Тези цифрови асистенти са предопределени да извършват рутинните задания вместо хората – от онлайн извършване на покупки до добиване на информация. На процедура обаче тяхната надеждност към момента оставя какво да се желае. Дори водещите специалисти в сектора признават, че днешните ИИ сътрудници към момента са надалеч от равнището, на което може да им се повери вземането на действителни решения – в бизнеса, промишлеността или всекидневието.
Неслучайно един от най-уважаваните специалисти в региона на изкуствения разсъдък, Джошуа Бенгио, започва лична самодейност с нестопанска цел за изследване на рисковете, свързани с сходни системи. Неговата организация ще проучва заканите, подбудени от цифровите сътрудници, които могат освен да вършат неточности, само че и съзнателно да заблуждават хората.
Опасенията се потвърждиха от нови проучвания. Учените откриха, че колкото по-слаб е моделът, въз основа на който работи един сътрудник, толкоз по-малка е вероятността той фактически да е в положение дейно да пази човешките ползи. Това е изключително видимо при автоматизираните договаряния или транзакции, където сходен изкуствен интелект елементарно може да пропусне изгоди или да допусне доста неточности.
Междувременно внедряването на изкуствения разсъдък продължава да набира скорост. OpenAI и производителят на играчки Mattel оповестиха съдействие – те възнамеряват да създават детски артикули с интегрирани ИИ функционалности. Според разработчиците тези артикули би трябвало да са безвредни за децата и да регистрират особеностите на тяхната възраст. Експертите обаче не са сигурни до каква степен оправдани са сходни опити и кой ще управлява следствията от тях. Сред вероятните опасности са неправилното държание на изкуствения разсъдък, събирането на данни за децата без знанието на родителите, уязвимости, посредством които трети лица могат да получат достъп до устройствата.
Според прогнозите на аналитиците до 2030 година оборотът на ИИ промишлеността може да надвиши 1,5 трилиона $. На фона на сходни финансови вероятности не е изненадващо, че фирмите бързат да започват все по-рискови планове, като не всеки път се замислят за рисковете. Ето за какво специалистите приканват да се обърне внимание на регулацията – тъй че технологиите да останат потребни и да носят наслада, а не да се трансфорат в следващото главоболие.




