В сезона на вирусите хората масово се лекуват с ChatGPT
Все по-често събитие е хората да се доверяват на изкуствен интелект като ChatGPT за своето здравословно положение - от инспекция на медикаменти до диагностициране по признаци. В същото време законодателството, което би трябвало да контролира както заплахите, по този начин и позитивното приложение на технологиите, се бави. По тематиката в предаването „ Твоят ден “ по NOVA NEWS приказва специалистът по киберсигурност Любомир Тулев.
Според специалиста по киберсигурност Любомир Тулев сходна процедура е извънредно рискована. „ Лекуването с ChatGPT, без да обидя никой, е като че ли да гледаш мнения във форума БГ-мама и да се лекуваш. Горе-долу е идентично “, съобщи той. Тулев изясни, че приложението просто събира информация от интернет на база заложения въпрос, само че не може да извърши действителен разбор на положението на съответен човек.
Проблемът с дезинформацията и злонамереното потребление на изкуствен интелект, като да вземем за пример „ дийп фалшив “ видеата, е в основата на новия европейски закон, прочут като EU AI Act. Той е влезнал в действие за целия Европейски съюз още на 1 август 2024 година, само че към момента не е транспониран у нас.
„ Този закон разделя използването на изкуствен интелект в едни четири категории “, изясни Тулев.
Недопустим риск: Това са приложения, които са тотално неразрешени. Например, такива за обществено изключване, както и технологии, които могат да трансформират държанието на хората. „ Представи си някакво плюшено мече, детска играчка, вътре има механизъм, с който въпросното мече приказва. Ако вътре има изкуствен интелект, осъзнаваме, че това мече може да предизвика нашето дете в една или друга посока, която може да е друга от това, което родителят желае да възпитава “, даде образец специалистът.
Високорискова приложимост: Тук попадат браншове като медицината. Законът изисква доста добър разбор на риска и прецизни контролиращи ограничения.
Приемливи опасности: В тази категория влизат „ дийп фалшив “ видеата. Според закона, всяко наличие, генерирано посредством изкуствен интелект, би трябвало наложително да бъде обозначено с воден знак, с цел да е ясно на потребителите, че е подправено.
Приемливи приложения: Тук изкуственият разсъдък може да се употребява свободно, без специфични обозначения.
Любомир Тулев посочи, че до 1 август тази година България е трябвало да уточни пред Брюксел три органа, които да дават отговор за използването на закона. Към момента обаче страната ни не е показала органи за две от категориите. Съществуват спекулации, че един от виновните органи може да бъде Министерството на нововъведенията и растежа.
Крайният период за цялостното оперативно използване на закона от всички страни членки е 1 август 2026 година „ Вече сме в веселба “, съобщи Тулев и предизвести, че в случай че не наваксаме, страната ни може да предстои на наказания.




