„Харесва ми“ вече не означава нищо: Как AI променя същността на дигиталната ни ангажираност
Години наред най-простият израз за утвърждение в цифровия свят беше Like бутонът. Едно бързо кликване – и логаритмите към този момент знаят какво харесваме, платформите стартират да ни оферират още сходни артикули, а основателите на наличие получават сигнал, че са уцелили „ право в десетката “.
Днес обаче, когато изкуственият разсъдък завладява света, за никого не е изненада, че и бутонът за харесване може да се промени – или изцяло да бъде премахнат, написа WIRED.
Макс Левчин, съосновател на PayPal и основен изпълнителен шеф на Affirm, вижда в Like бутона неизползвано досега богатство с голям капацитет. По негово мнение, точно масата от данни за това какво хората харесват онлайн може да се трансформира във значим актив за AI образование.
„ Едно от най-ценните неща, които Фейсбук има, е тази планина от данни за харесванията. Да знаеш какво наличие харесват хората и да го използваш за трениране на модели е може би едно от най-ценните неща в интернет през днешния ден “, споделя Левчин.
Причината за това е много елементарна – при класическото машинно образование компютърът се стреми да усъвършенства заложена цел посредством усилващо образование (reinforcement learning), само че постоянно стига до странни, непредвидени и даже от време на време – нежелани резултати.
За да се намеси човешката логичност и преценка, разработчиците употребяват по този начин нареченото образование посредством човешка противоположна връзка (RLHF). Проблемът идва от цената на това „ наслаждение “, защото то изисква ангажиране на действителни хора, които ръчно дават противоположна връзка. А това не е елементарно за реализиране.
Тук блесва и Like бутонът. Ако данните от него могат да бъдат употребявани като всеобщ източник на човешки желания, той се трансформира в самобитен „ стандарт “ за RLHF, а това го прави стратегически актив от ново потомство.
Но колкото и парадоксално да звучи, до момента в който Левчин вижда бъдещето му като вместилище на стойностна информация за AI образование, някои други считат, че самият изкуствен интелект ще го направи непотребен.
AI към този момент трансформира метода, по който се образуват и проучват данните и желанията на потребителите. Социалните мрежи употребяват и основават логаритми, които не просто проучват харесванията, само че и плануват кои изявления ще бъдат харесани – от време на време още преди самият консуматор да е осъзнал какво му харесва.
Пример за това може да бъде тест на Фейсбук от началото на 2024 година, при който AI е употребен за усъвършенстване на логаритъма за рекомендации на видеа под формата на Reels. Целта е по-добро предугаждане на идващото гледано видео. Резултатът, естествено, е позитивен за платформата – повече време, прекарано в гледане на видеа.
Съоснователят на YouTube Стив Чен също не е сигурен дали в бъдеще въобще ще има потребност от Like бутона. „ Понякога се чудя дали ще е необходим, когато AI може с съвсем 100% акуратност да планува какво желае да гледа един човек, единствено на база предходното му държание “, споделя той.
Все отново Чен признава, че има обстановки, в които този бутон към момента ще бъде потребен. Например, когато потребителят търси друго наличие – поради смяна в настроението или други условия.
„ Има дни, в които просто желая да виждам нещо с децата си, да вземем за пример “, прибавя той.
Още една причина за вероятната резистентност на Like-а е ролята му в свързването на три съществени участника в цифровата екосистема: консуматор, основател на наличие и рекламодател. С едно кликване потребителите показват страст, дават противоположна връзка на създателя и по едно и също време изпращат сигнал към рекламния пазар за степента на ангажираност.
Днес все по-голяма част от наличието, което събира лайкове в обществените мрежи – без значение дали става въпрос за текст, изображения или видео формат – към този момент е генерирано от изкуствен интелект. Това повдига следващия въпрос: дали Like бутонът въобще е съответстващ, когато става въпрос за наличие, което не е генерирано от хора… а и самите лайкове може би не идват от хора?
Първоначалната му функционалност – да предизвиква потребителите да основават наличие – губи тежест, в случай че платформите към този момент разчитат на AI, с цел да създават такова.
Но какво ще се случи, в случай че действителните хора просто престанат да разгласяват?
Тук идва и един по-сериозен въпрос, привързан с достоверността на наличието. По време на шоуто в полувремето на Super Bowl 2024 Алиша Кийс извършва песента If I Ain’t Got You онлайн – и позволява лек подправен звук.
Минути по-късно видеото е качено в YouTube, само че грешката липсва. Автоматично поправена, без никакво известие. Малка операция, само че изцяло задоволителна, с цел да провокира вълна от мнения.
Ако AI може да поправя подправена нота, той също толкоз елементарно може да клонира и глас. И тъкмо това се случва.
През януари 2024 година американската Федерална комисия по връзки (FCC) не разрешава потреблението на изкуствен интелект за клониране на гласове за машинация – откакто са разпратени автоматизирани позвънявания с AI генериран глас на президента Джо Байдън.
„ Независимо кой е обичаният ви политик или какъв брой близки сте с роднините си, към този момент всички можем да се превърнем в цел на подправени позвънявания “, предизвестява ръководителят на FCC Джесика Розенуорсел.
Но не става въпрос единствено за измами.
Все по-често обществените мрежи се пълнят с инфлуенсъри, които... не съществуват.
Аитайна Лопес, да вземем за пример, е „ испанска “ певица и фешън инфлуенсър с над 310 000 почитатели в Instagram. Работи с марки като Victoria’s Secret. Но не ѝ трябват нито облекла, нито козметика, тъй като Аитайна не е човек. Тя е AI творение, артикул на рекламна организация, която взема решение да размени сложните за ръководство действителни инфлуенсъри с виртуални такива.
С възходящото наличие на изкуствения разсъдък постоянно се случва подправени инфлуенсъри и ботове да харесват, разясняват и споделят, а тъкмо тук поражда и разумният въпрос: в случай че наличието не е човешко, а и лайковете не са от хора, тогава какъв е смисълът?
Пример за това бъдеще е CarynAI – виртуална версия на действителен Snapchat инфлуенсър, която предлага платена услуга за персонален чат ($1 на минута), основана на GPT-4. Потребителите си приказват с AI, подготвен по архива на действителната Керин Маржъри.
Възможен е сюжет, в който наличието е генерирано от изкуствен интелект, харесванията – също, а взаимоотношенията се случват сред стратегии, без действителни хора. И тогава изниква един фундаментален въпрос: по какъв начин ще разпознаваме кое е действително и кое – не?
Днес обаче, когато изкуственият разсъдък завладява света, за никого не е изненада, че и бутонът за харесване може да се промени – или изцяло да бъде премахнат, написа WIRED.
Макс Левчин, съосновател на PayPal и основен изпълнителен шеф на Affirm, вижда в Like бутона неизползвано досега богатство с голям капацитет. По негово мнение, точно масата от данни за това какво хората харесват онлайн може да се трансформира във значим актив за AI образование.
„ Едно от най-ценните неща, които Фейсбук има, е тази планина от данни за харесванията. Да знаеш какво наличие харесват хората и да го използваш за трениране на модели е може би едно от най-ценните неща в интернет през днешния ден “, споделя Левчин.
Причината за това е много елементарна – при класическото машинно образование компютърът се стреми да усъвършенства заложена цел посредством усилващо образование (reinforcement learning), само че постоянно стига до странни, непредвидени и даже от време на време – нежелани резултати.
За да се намеси човешката логичност и преценка, разработчиците употребяват по този начин нареченото образование посредством човешка противоположна връзка (RLHF). Проблемът идва от цената на това „ наслаждение “, защото то изисква ангажиране на действителни хора, които ръчно дават противоположна връзка. А това не е елементарно за реализиране.
Тук блесва и Like бутонът. Ако данните от него могат да бъдат употребявани като всеобщ източник на човешки желания, той се трансформира в самобитен „ стандарт “ за RLHF, а това го прави стратегически актив от ново потомство.
Но колкото и парадоксално да звучи, до момента в който Левчин вижда бъдещето му като вместилище на стойностна информация за AI образование, някои други считат, че самият изкуствен интелект ще го направи непотребен.
AI към този момент трансформира метода, по който се образуват и проучват данните и желанията на потребителите. Социалните мрежи употребяват и основават логаритми, които не просто проучват харесванията, само че и плануват кои изявления ще бъдат харесани – от време на време още преди самият консуматор да е осъзнал какво му харесва.
Пример за това може да бъде тест на Фейсбук от началото на 2024 година, при който AI е употребен за усъвършенстване на логаритъма за рекомендации на видеа под формата на Reels. Целта е по-добро предугаждане на идващото гледано видео. Резултатът, естествено, е позитивен за платформата – повече време, прекарано в гледане на видеа.
Съоснователят на YouTube Стив Чен също не е сигурен дали в бъдеще въобще ще има потребност от Like бутона. „ Понякога се чудя дали ще е необходим, когато AI може с съвсем 100% акуратност да планува какво желае да гледа един човек, единствено на база предходното му държание “, споделя той.
Все отново Чен признава, че има обстановки, в които този бутон към момента ще бъде потребен. Например, когато потребителят търси друго наличие – поради смяна в настроението или други условия.
„ Има дни, в които просто желая да виждам нещо с децата си, да вземем за пример “, прибавя той.
Още една причина за вероятната резистентност на Like-а е ролята му в свързването на три съществени участника в цифровата екосистема: консуматор, основател на наличие и рекламодател. С едно кликване потребителите показват страст, дават противоположна връзка на създателя и по едно и също време изпращат сигнал към рекламния пазар за степента на ангажираност.
Днес все по-голяма част от наличието, което събира лайкове в обществените мрежи – без значение дали става въпрос за текст, изображения или видео формат – към този момент е генерирано от изкуствен интелект. Това повдига следващия въпрос: дали Like бутонът въобще е съответстващ, когато става въпрос за наличие, което не е генерирано от хора… а и самите лайкове може би не идват от хора?
Първоначалната му функционалност – да предизвиква потребителите да основават наличие – губи тежест, в случай че платформите към този момент разчитат на AI, с цел да създават такова.
Но какво ще се случи, в случай че действителните хора просто престанат да разгласяват?
Тук идва и един по-сериозен въпрос, привързан с достоверността на наличието. По време на шоуто в полувремето на Super Bowl 2024 Алиша Кийс извършва песента If I Ain’t Got You онлайн – и позволява лек подправен звук.
Минути по-късно видеото е качено в YouTube, само че грешката липсва. Автоматично поправена, без никакво известие. Малка операция, само че изцяло задоволителна, с цел да провокира вълна от мнения.
Ако AI може да поправя подправена нота, той също толкоз елементарно може да клонира и глас. И тъкмо това се случва.
През януари 2024 година американската Федерална комисия по връзки (FCC) не разрешава потреблението на изкуствен интелект за клониране на гласове за машинация – откакто са разпратени автоматизирани позвънявания с AI генериран глас на президента Джо Байдън.
„ Независимо кой е обичаният ви политик или какъв брой близки сте с роднините си, към този момент всички можем да се превърнем в цел на подправени позвънявания “, предизвестява ръководителят на FCC Джесика Розенуорсел.
Но не става въпрос единствено за измами.
Все по-често обществените мрежи се пълнят с инфлуенсъри, които... не съществуват.
Аитайна Лопес, да вземем за пример, е „ испанска “ певица и фешън инфлуенсър с над 310 000 почитатели в Instagram. Работи с марки като Victoria’s Secret. Но не ѝ трябват нито облекла, нито козметика, тъй като Аитайна не е човек. Тя е AI творение, артикул на рекламна организация, която взема решение да размени сложните за ръководство действителни инфлуенсъри с виртуални такива.
С възходящото наличие на изкуствения разсъдък постоянно се случва подправени инфлуенсъри и ботове да харесват, разясняват и споделят, а тъкмо тук поражда и разумният въпрос: в случай че наличието не е човешко, а и лайковете не са от хора, тогава какъв е смисълът?
Пример за това бъдеще е CarynAI – виртуална версия на действителен Snapchat инфлуенсър, която предлага платена услуга за персонален чат ($1 на минута), основана на GPT-4. Потребителите си приказват с AI, подготвен по архива на действителната Керин Маржъри.
Възможен е сюжет, в който наличието е генерирано от изкуствен интелект, харесванията – също, а взаимоотношенията се случват сред стратегии, без действителни хора. И тогава изниква един фундаментален въпрос: по какъв начин ще разпознаваме кое е действително и кое – не?
Източник: profit.bg
КОМЕНТАРИ




