Седем проблема, които генеративният AI ще задълбочи
Генеративните модели за изкуствен интелект (AI) като ChatGPT са толкоз шокиращо положителни в някои области, че доста хора към този момент ги считат даже за по-умни от индивида. И постоянно това е по този начин. Генеративните AI основават красиви творби на изкуството в главозамайващо многообразие от стилове. Както и текстове, цялостни с елементи, хрумвания и познания. Генерираното наличие е толкоз разнообразно, че постоянно е мъчно човек да повярва, че то в действителност е основано от машина. А индивидът занапред стартира да открива опциите на генеративният изкуствен интелект. Някои анализатори даже мислят, че този нов вид AI най-сетне е прекарал технологията оттатък теста на Тюринг, който е основан да разграничава човек от бот. Други считат, че е премината друга граница, като чакат този напредък да докара до загубата на доста работни места. Ето в кои 7 сфери генеративния изкуствен интелект може да промени нещата към по-лошо. Плагиатство Когато основават генеративни модели за изкуствен интелект като DALL-E и ChatGPT, фирмите в действителност репликират нови платформи от милионите обучителни набори данни, които са натрупали през годините посредством взаимоотношение с потребителите. В резултат на това тези платформи в действителност са синтез от разнообразни източници на информация. А когато това се прави от хора в научните среди, се назовава плагиатство. Разбира се, хората също се учат посредством подражателство, само че при AI в някои случаи заимстването е толкоз явно, че би подразнило и преподавател в началното учебно заведение, показват от осведомителната платформа. Авторско право Докато плагиатството е проблем най-вече за научната област, законите за авторското право засягат и пазара. Когато един човек употребява непознато произведение, той рискува да бъде изправен пред съд, който може да му наложи санкции в размер на милиони долари. Но какво да кажем за изкуствените интелекти? Прилагат ли се същите правила за тях? Авторското право е комплицирана тематика и правният статут на материалите, основани от генеративните AI, още дълги години ще бъде обект на диспути, считат анализатори. Кражба на труд
Плагиатството и авторските права не са единствените правни въпроси, които навлизането на генеративния AI повдига. В юридическите среди към този момент се повдига тематиката за нови етични проблеми, които могат да бъдат основа на правосъдни каузи. Трябва ли една компания, която основава AI стратегия за изобразяване, да може да събира данни за държанието на хората, когато правят тази активност, след което да употребява данните за образование на своите системи? Трябва ли хората да бъдат обезщетени за креативния си труд, в случай че въпреки всичко това се случва? Какво става, когато хората, които генерират данните, изискат да получат нещо в подмяна? Какво е справедливото решение в тази ситуация? А какво е законовото? Въпросите са доста, отговорите малко, а едно е ясно - огромна част от триумфа на настоящето потомство изкуствен интелект се дължи на достъпа до данни. Информацията не е знание Изкуственият разсъдък е изключително добър в имитирането на просветеност, която с времето се развива като при хората. Но когато човек се научи да рисува като прочут художник от XVII век или да написа нова музика в съвсем забравена ренесансова тонална конструкция, това е впечатляващо, защото всеки знае, че са му били нужни години труд и образование. Както и гений. Когато един изкуствен интелект прави същите неща единствено с няколко месеца образование, резултатите могат да бъдат потресаващо точни, само че нещо липсва - опитът по пътя към научаването им. Интелектуална стагнация
Говорейки за просветеност, би трябвало да е ясно, че изкуствените интелекти в действителност са механични и учредени на правила системи. След като обработи даден набор от обучителни данни, AI основава модел и този модел не се трансформира. По различен метод казано, концепцията е да се сътвори комплициран набор от изкуствени неврони, които кодират избрани познания във закрепена форма. Постоянството има своето място и може да работи за избрани промишлености, само че в това време една сходна платформа рискува вечно да остане в духа на времето на своите обучителни данни, в случай че те не се актуализират.
Прикрита пристрастност Много от проблемите с AI платформите идват от потреблението на неприятни данни за образование. Ако наборът е неакуратен или привързан, резултатите ще отразят това на 100%. Хардуерът, който е в основата на генеративния AI, може да има непоклатима логичност, само че хората, които го основават не всеки път. А случаите на скандално пристрастни AI чатботове са десетки, като даже най-големите софтуерни колоси не са застраховани от неуспех, както демонстрира случая с платформа на Microsoft, която беше свалена 24 часа след стартирането си. Причината - стартира да наскърбява потребителите. Човешко незнание Понякога, без да го осъзнаваме, ние, хората, сме склонни да трансформираме пропуските в знанията на AI в свои и дава образец: “Ако AI каже, че Хенри VIII е бил крал, който е убивал съпругите си, доста огромна част от потребителите няма да слагат това изказване под въпрос, защото самите те не са наясно с историята ”. Най-голямото предизвикателство за потребителите на генеративен AI в действителност се оказва да преценяват по кое време той може да бърка.
Прочетете още
Плагиатството и авторските права не са единствените правни въпроси, които навлизането на генеративния AI повдига. В юридическите среди към този момент се повдига тематиката за нови етични проблеми, които могат да бъдат основа на правосъдни каузи. Трябва ли една компания, която основава AI стратегия за изобразяване, да може да събира данни за държанието на хората, когато правят тази активност, след което да употребява данните за образование на своите системи? Трябва ли хората да бъдат обезщетени за креативния си труд, в случай че въпреки всичко това се случва? Какво става, когато хората, които генерират данните, изискат да получат нещо в подмяна? Какво е справедливото решение в тази ситуация? А какво е законовото? Въпросите са доста, отговорите малко, а едно е ясно - огромна част от триумфа на настоящето потомство изкуствен интелект се дължи на достъпа до данни. Информацията не е знание Изкуственият разсъдък е изключително добър в имитирането на просветеност, която с времето се развива като при хората. Но когато човек се научи да рисува като прочут художник от XVII век или да написа нова музика в съвсем забравена ренесансова тонална конструкция, това е впечатляващо, защото всеки знае, че са му били нужни години труд и образование. Както и гений. Когато един изкуствен интелект прави същите неща единствено с няколко месеца образование, резултатите могат да бъдат потресаващо точни, само че нещо липсва - опитът по пътя към научаването им. Интелектуална стагнация
Говорейки за просветеност, би трябвало да е ясно, че изкуствените интелекти в действителност са механични и учредени на правила системи. След като обработи даден набор от обучителни данни, AI основава модел и този модел не се трансформира. По различен метод казано, концепцията е да се сътвори комплициран набор от изкуствени неврони, които кодират избрани познания във закрепена форма. Постоянството има своето място и може да работи за избрани промишлености, само че в това време една сходна платформа рискува вечно да остане в духа на времето на своите обучителни данни, в случай че те не се актуализират.
Прикрита пристрастност Много от проблемите с AI платформите идват от потреблението на неприятни данни за образование. Ако наборът е неакуратен или привързан, резултатите ще отразят това на 100%. Хардуерът, който е в основата на генеративния AI, може да има непоклатима логичност, само че хората, които го основават не всеки път. А случаите на скандално пристрастни AI чатботове са десетки, като даже най-големите софтуерни колоси не са застраховани от неуспех, както демонстрира случая с платформа на Microsoft, която беше свалена 24 часа след стартирането си. Причината - стартира да наскърбява потребителите. Човешко незнание Понякога, без да го осъзнаваме, ние, хората, сме склонни да трансформираме пропуските в знанията на AI в свои и дава образец: “Ако AI каже, че Хенри VIII е бил крал, който е убивал съпругите си, доста огромна част от потребителите няма да слагат това изказване под въпрос, защото самите те не са наясно с историята ”. Най-голямото предизвикателство за потребителите на генеративен AI в действителност се оказва да преценяват по кое време той може да бърка.
Прочетете още
Източник: trafficnews.bg
КОМЕНТАРИ




