AI плагиатство или какво се случва, когато Grok счупи кода на ChatGPT
След еуфорията от стартирането на ChatGPT, редица откриватели и специалисти предизвестиха, че лекотата, с която се основава наличие посредством принадлежности с изкуствен интелект, може да „ токсини кладенеца “ на информация, създавайки циничен кръг, в който тези принадлежности генерират наличие, което по-късно се употребява за образование на други модели за AI.
Този по този начин наименуван " срив на модела " - който би изчерпал всички " познания ", насъбрани от чатботовете, изглежда се е сбъднал, пишат в разбор от FastCompany.
Неотдавна консуматор на X (Twitter) разгласява скрийншот, показващ, че Grok, чатботът с огромен езиков модел, създаден от xAI на Илон Мъск, е (вероятно неволно) плагиатствал отговор от конкурентния чатбот на OpenAI.
Когато потребителят го помолил да подправи злоумишлен програмен продукт, Grok дал отговор, че не може, " защото това опонира на политиката на OpenAI ".
" Това се случи, когато се пробвах да го накарам да модифицира някакъв злотворен програмен продукт ", изяснява потребителят в обявата, като допуска, че отговорът може да е доказателство, че " Grok безусловно раздира кодовата база на OpenAI ".
Uhhh. Tell me that Grok is literally just ripping OpenAI's code base lol. This is what happened when I tried to get it to modify some malware for a red team engagement. Huge if true. #GrokXpic.twitter.com/4fHOc9TVOz
— Jax Winterbourne (@JaxWinterbourne) December 9, 2023 Това пояснение беше опровергано от Игор Бабушкин, член на техническия личен състав на xAI, който преди този момент е работил за OpenAI и Гугъл DeepMind.
" Не се тормозете, за основаването на Grok не е употребен код на OpenAI ", отговори той в X.
The issue here is that the web is full of ChatGPT outputs, so we accidentally picked up some of them when we trained Grok on a large amount of web data. This was a huge surprise to us when we first noticed it. For what it’s worth, the issue is very rare and now that we’re aware…
— Igor Babuschkin (@ibab_ml) December 9, 2023 Вместо това, най-вероятно е имало срив на модела – макар че Бабушкин не употребява тъкмо тези думи.
" Проблемът тук е, че мрежата е цялостна с изходи от ChatGPT, тъй че ние инцидентно взехме някои от тях, когато обучихме Grok върху огромно количество уеб данни ", написа той. " Това беше голяма изненада за нас, когато го забелязахме за първи път. "
Grok е основан по-специално за добиване на данни от лайфстрийм на интернет наличие, в това число от потока от изявления на X, което беше несъмнено като евентуален проблем от специалисти в коментар за FastCompany още преди месец.
" Това в действителност демонстрира, че тези модели няма да бъдат надеждни в дълготраен проект, в случай че се учат от данни след епохата на LLM – без да може да се каже какви данни са били генерирани от машини, качеството на резултатите ще продължи да спада ", изяснява Катрин Флик, професор по нравственос и технология в университета в Стафордшир.
" Това, което наподобява се е случило тук, е, че Илон Мъск е взел по-малко кадърен модел ", счита Рос Андерсън, един от съавторите на истинската публикация, в която е въведен терминът " срив на модела ", " и по-късно го е донастроил, наподобява, като е получил доста наличие, създадено от ChatGPT, от разнообразни места. "
Подобен сюжет би бил тъкмо това, за което Андерсън и сътрудниците му предизвестяват, че може да се случи.
xAI не отговори на молбата на Fast Company за коментар.
Андерсън предизвестява, че евентуално обстановката ще се утежни.
" Когато LLM създават наличие без човешки контрол, те могат да генерират всевъзможни нелепости ", споделя той. " Щом имате LLM бот, който просто изхвърля всевъзможни неща в интернет, той може да прави всевъзможни неприятни неща, а вие просто да не знаете. "
Почти половината от работещите в платформата Mechanical Turk на Amazon, която постоянно се употребява от университетски откриватели за събиране на данни и осъществяване на опити, са съобщили, че са употребявали принадлежности за генеративен AI, което допуска, че халюцинациите и грешките скоро могат да намерят своето място в научната литература.
Конкретната фраза, която първа е насочила потребителя в X към нещо съмнително, протичащо се с Grok, не е напълно неповторима. " Това опонира на политиката на OpenAI за случаите на приложимост " се появява на хиляди уеб страници преди туита на 9 декември.
В мрежата има към 20 000 резултата, които употребяват безусловно същата фраза, добавя FastCompany. Някои от тях са цитати, включени в постове за това по какъв начин консуматори употребяват ChatGPT непозволено и се сблъскват с вградените му ограничавания, само че доста от тях са от уеб страници, които наподобява несъзнателно са присъединили фразата в наличие, генерирано от изкуствен интелект, което е било оповестено непосредствено в интернет без редакция.
Накратко: Резултатите от ChatGPT към този момент са налице, разпръснати из мрежата.
И защото новите LLM търсят в интернет повече данни за образование, все по-вероятно е да открият повече наличие, генерирано от AI, за по-широка приложимост, в това число в фирмите и държавните управления.
Визуално показване на вредите, които може да нанесе сривът на модела, е демонстрирано от откриватели от Станфордския университет и Калифорнийския университет в Бъркли, които са захранвали основателите на генеративни изображения с артикули, генерирани от AI.
Изкривяванията и деформациите, които се получават, трансформират изцяло естествени човешки лица в гротескни карикатури, защото моделът стартира да се разпада.
Забавният мем " Make it more ", който се популяризира в обществените медии, където потребителите молят генераторите на изображения с AI да създадат продукцията им по-екстремна, също акцентира какво може да се случи, когато AI стартира да се образова по генерирана от AI продукция.
" Всяко последващо потомство на даден модел ще бъде доста по-малко надеждно като източник на същински обстоятелства за света, защото всяко от тях ще бъде обучавано с все по-малко надеждни данни ", споделя Майк Кател, помощник по нравственос в Института " Алън Тюринг ".
" Като се има поради, че точността и надеждността на принадлежности като ChatGPT са сериозен проблем в този момент, представете си какъв брой мъчно ще бъде да накараме тези модели да показват действителността, когато все по-голяма част от техните данни за образование са цялостни с генерирани неточности и неистини? ", пита специалистът.
Това е проблем, който евентуално единствено ще се задълбочава, защото чатботовете, основани на LLM, стават все по-разпространени в всекидневието ни, а резултатите от тях – все по-често срещани в нашето онлайн прекарване.
Решението на казуса също няма да е елементарно, откакто лавината към този момент е тръгнала по ската.
" xAI просто ще направи някакво изключване на " OpenAI " и други имена на модели и ще замаже казуса, само че главният проблем няма да изчезне. Машината ще продължи да изяжда личните си творения, до момента в който не остане единствено леке от това, което е било автентично. ", предвижда проф. Флик.
Този по този начин наименуван " срив на модела " - който би изчерпал всички " познания ", насъбрани от чатботовете, изглежда се е сбъднал, пишат в разбор от FastCompany.
Неотдавна консуматор на X (Twitter) разгласява скрийншот, показващ, че Grok, чатботът с огромен езиков модел, създаден от xAI на Илон Мъск, е (вероятно неволно) плагиатствал отговор от конкурентния чатбот на OpenAI.
Когато потребителят го помолил да подправи злоумишлен програмен продукт, Grok дал отговор, че не може, " защото това опонира на политиката на OpenAI ".
" Това се случи, когато се пробвах да го накарам да модифицира някакъв злотворен програмен продукт ", изяснява потребителят в обявата, като допуска, че отговорът може да е доказателство, че " Grok безусловно раздира кодовата база на OpenAI ".
Uhhh. Tell me that Grok is literally just ripping OpenAI's code base lol. This is what happened when I tried to get it to modify some malware for a red team engagement. Huge if true. #GrokXpic.twitter.com/4fHOc9TVOz
— Jax Winterbourne (@JaxWinterbourne) December 9, 2023 Това пояснение беше опровергано от Игор Бабушкин, член на техническия личен състав на xAI, който преди този момент е работил за OpenAI и Гугъл DeepMind.
" Не се тормозете, за основаването на Grok не е употребен код на OpenAI ", отговори той в X.
The issue here is that the web is full of ChatGPT outputs, so we accidentally picked up some of them when we trained Grok on a large amount of web data. This was a huge surprise to us when we first noticed it. For what it’s worth, the issue is very rare and now that we’re aware…
— Igor Babuschkin (@ibab_ml) December 9, 2023 Вместо това, най-вероятно е имало срив на модела – макар че Бабушкин не употребява тъкмо тези думи.
" Проблемът тук е, че мрежата е цялостна с изходи от ChatGPT, тъй че ние инцидентно взехме някои от тях, когато обучихме Grok върху огромно количество уеб данни ", написа той. " Това беше голяма изненада за нас, когато го забелязахме за първи път. "
Grok е основан по-специално за добиване на данни от лайфстрийм на интернет наличие, в това число от потока от изявления на X, което беше несъмнено като евентуален проблем от специалисти в коментар за FastCompany още преди месец.
" Това в действителност демонстрира, че тези модели няма да бъдат надеждни в дълготраен проект, в случай че се учат от данни след епохата на LLM – без да може да се каже какви данни са били генерирани от машини, качеството на резултатите ще продължи да спада ", изяснява Катрин Флик, професор по нравственос и технология в университета в Стафордшир.
" Това, което наподобява се е случило тук, е, че Илон Мъск е взел по-малко кадърен модел ", счита Рос Андерсън, един от съавторите на истинската публикация, в която е въведен терминът " срив на модела ", " и по-късно го е донастроил, наподобява, като е получил доста наличие, създадено от ChatGPT, от разнообразни места. "
Подобен сюжет би бил тъкмо това, за което Андерсън и сътрудниците му предизвестяват, че може да се случи.
xAI не отговори на молбата на Fast Company за коментар.
Андерсън предизвестява, че евентуално обстановката ще се утежни.
" Когато LLM създават наличие без човешки контрол, те могат да генерират всевъзможни нелепости ", споделя той. " Щом имате LLM бот, който просто изхвърля всевъзможни неща в интернет, той може да прави всевъзможни неприятни неща, а вие просто да не знаете. "
Почти половината от работещите в платформата Mechanical Turk на Amazon, която постоянно се употребява от университетски откриватели за събиране на данни и осъществяване на опити, са съобщили, че са употребявали принадлежности за генеративен AI, което допуска, че халюцинациите и грешките скоро могат да намерят своето място в научната литература.
Конкретната фраза, която първа е насочила потребителя в X към нещо съмнително, протичащо се с Grok, не е напълно неповторима. " Това опонира на политиката на OpenAI за случаите на приложимост " се появява на хиляди уеб страници преди туита на 9 декември.
В мрежата има към 20 000 резултата, които употребяват безусловно същата фраза, добавя FastCompany. Някои от тях са цитати, включени в постове за това по какъв начин консуматори употребяват ChatGPT непозволено и се сблъскват с вградените му ограничавания, само че доста от тях са от уеб страници, които наподобява несъзнателно са присъединили фразата в наличие, генерирано от изкуствен интелект, което е било оповестено непосредствено в интернет без редакция.
Накратко: Резултатите от ChatGPT към този момент са налице, разпръснати из мрежата.
И защото новите LLM търсят в интернет повече данни за образование, все по-вероятно е да открият повече наличие, генерирано от AI, за по-широка приложимост, в това число в фирмите и държавните управления.
Визуално показване на вредите, които може да нанесе сривът на модела, е демонстрирано от откриватели от Станфордския университет и Калифорнийския университет в Бъркли, които са захранвали основателите на генеративни изображения с артикули, генерирани от AI.
Изкривяванията и деформациите, които се получават, трансформират изцяло естествени човешки лица в гротескни карикатури, защото моделът стартира да се разпада.
Забавният мем " Make it more ", който се популяризира в обществените медии, където потребителите молят генераторите на изображения с AI да създадат продукцията им по-екстремна, също акцентира какво може да се случи, когато AI стартира да се образова по генерирана от AI продукция.
" Всяко последващо потомство на даден модел ще бъде доста по-малко надеждно като източник на същински обстоятелства за света, защото всяко от тях ще бъде обучавано с все по-малко надеждни данни ", споделя Майк Кател, помощник по нравственос в Института " Алън Тюринг ".
" Като се има поради, че точността и надеждността на принадлежности като ChatGPT са сериозен проблем в този момент, представете си какъв брой мъчно ще бъде да накараме тези модели да показват действителността, когато все по-голяма част от техните данни за образование са цялостни с генерирани неточности и неистини? ", пита специалистът.
Това е проблем, който евентуално единствено ще се задълбочава, защото чатботовете, основани на LLM, стават все по-разпространени в всекидневието ни, а резултатите от тях – все по-често срещани в нашето онлайн прекарване.
Решението на казуса също няма да е елементарно, откакто лавината към този момент е тръгнала по ската.
" xAI просто ще направи някакво изключване на " OpenAI " и други имена на модели и ще замаже казуса, само че главният проблем няма да изчезне. Машината ще продължи да изяжда личните си творения, до момента в който не остане единствено леке от това, което е било автентично. ", предвижда проф. Флик.
Източник: profit.bg
КОМЕНТАРИ




