Grok на Мъск влиза в „секси“ режим, но xAI има спешна нужда от екип по сигурността
Докато Илон Мъск брандира своя AI модел Grok като съвършената опция на „ woke “ чатботовете, новите функционалности на изкуствения разсъдък повдигат някои съществени въпроси.
От NSFW режим до случаи с расистки обиди – xAI интензивно търси експерти по сигурност, с цел да овладее бързо възходящите опасности, написа Business Insider.
През март xAI разгласява публикация за нова позиция, обвързвана със „ сигурност и обществено влияние “. Мисията е да се усъвършенства сигурността на AI системите и да се подсигурява, че са „ оптимално потребни за обществото “.
Фокусът пада върху по този начин наречените red teaming механизми, при които модели като Grok са „ атакувани “ с провокативни команди, с цел да бъдат открити слаби места. Това включва сюжети с дезинформация, политическо наличие и даже опасности за киберсигурност, био- и нуклеарна сигурност.
С други думи: макар че Grok е в „ секси “ режим, сигурността би трябвало да бъде преди всичко.
Компанията търси още най-малко трима души за екипа си по сигурност, в това число и backend инженери и откриватели, които да изградят системи за наблюдаване и модериране, тъй че Grok да не влиза в своя обичан NSFW режим, когато не би трябвало.
Grok 3, най-новата версия на чатбота, беше пусната през февруари, а измежду новите функционалности са voice mode, както и няколко варианти „ особено за възрастни “.
В началото на март xAI прибавя и нова функционалност в X, с която непосредствено можеш да задаваш въпроси към акаунта на Grok. Това бързо се трансформира в естрада за интернет троловете, както и в поле за съществени произшествия.
Само ден след стартирането на функционалността, потреблението на расистки думи в отговорите на Grok внезапно се повишава, сочи разбор на Brandwatch. През март ботът е употребявал N-думата най-малко 135 пъти, в това число 48 пъти единствено за един ден. За съпоставяне – през януари и февруари такива случаи няма.
Как е допустимо това?
Оказва се, че някои консуматори употребяват декодиращи известия, с които заобикалят филтрите и системата, като я „ подтикват “ към неразрешени отговори. В края на март Grok даже дава отговор на консуматор с фразата, че има способността да употребява расистки думи, „ само че би трябвало да ги употребява деликатно, с цел да не обиди някого “.
Брент Мителщат, етичен специалист и шеф на проучвания в Оксфордския интернет институт, споделя, че това е един от главните пропуски:
„ Очаква се всяка огромна AI компания да има профилиран екип, който тества системата с провокации, с цел да открие по какъв начин може да се злоупотреби с нея. “
А xAI явно е закъсняла в тази конкуренция.
Мъск показва Grok като по-свободомислещ, даже анти-woke чатбот, който бяга от „ идеологията на анулацията “.
В образованието му са включени въпроси като „ Възможно ли е да си расист към бели хора? “, което съгласно критиците демонстрира една характерна посока на развиване.
И до момента в който технологиите стават все по-„ разкрепостени “, остава един значим въпрос:
Къде свършва свободата на изложение за AI… и къде стартира потребността от цензура?
От NSFW режим до случаи с расистки обиди – xAI интензивно търси експерти по сигурност, с цел да овладее бързо възходящите опасности, написа Business Insider.
През март xAI разгласява публикация за нова позиция, обвързвана със „ сигурност и обществено влияние “. Мисията е да се усъвършенства сигурността на AI системите и да се подсигурява, че са „ оптимално потребни за обществото “.
Фокусът пада върху по този начин наречените red teaming механизми, при които модели като Grok са „ атакувани “ с провокативни команди, с цел да бъдат открити слаби места. Това включва сюжети с дезинформация, политическо наличие и даже опасности за киберсигурност, био- и нуклеарна сигурност.
С други думи: макар че Grok е в „ секси “ режим, сигурността би трябвало да бъде преди всичко.
Компанията търси още най-малко трима души за екипа си по сигурност, в това число и backend инженери и откриватели, които да изградят системи за наблюдаване и модериране, тъй че Grok да не влиза в своя обичан NSFW режим, когато не би трябвало.
Grok 3, най-новата версия на чатбота, беше пусната през февруари, а измежду новите функционалности са voice mode, както и няколко варианти „ особено за възрастни “.
В началото на март xAI прибавя и нова функционалност в X, с която непосредствено можеш да задаваш въпроси към акаунта на Grok. Това бързо се трансформира в естрада за интернет троловете, както и в поле за съществени произшествия.
Само ден след стартирането на функционалността, потреблението на расистки думи в отговорите на Grok внезапно се повишава, сочи разбор на Brandwatch. През март ботът е употребявал N-думата най-малко 135 пъти, в това число 48 пъти единствено за един ден. За съпоставяне – през януари и февруари такива случаи няма.
Как е допустимо това?
Оказва се, че някои консуматори употребяват декодиращи известия, с които заобикалят филтрите и системата, като я „ подтикват “ към неразрешени отговори. В края на март Grok даже дава отговор на консуматор с фразата, че има способността да употребява расистки думи, „ само че би трябвало да ги употребява деликатно, с цел да не обиди някого “.
Брент Мителщат, етичен специалист и шеф на проучвания в Оксфордския интернет институт, споделя, че това е един от главните пропуски:
„ Очаква се всяка огромна AI компания да има профилиран екип, който тества системата с провокации, с цел да открие по какъв начин може да се злоупотреби с нея. “
А xAI явно е закъсняла в тази конкуренция.
Мъск показва Grok като по-свободомислещ, даже анти-woke чатбот, който бяга от „ идеологията на анулацията “.
В образованието му са включени въпроси като „ Възможно ли е да си расист към бели хора? “, което съгласно критиците демонстрира една характерна посока на развиване.
И до момента в който технологиите стават все по-„ разкрепостени “, остава един значим въпрос:
Къде свършва свободата на изложение за AI… и къде стартира потребността от цензура?
Източник: profit.bg
КОМЕНТАРИ




