OpenAI е предоставила продукта за търсене на платени клиенти и

...
OpenAI е предоставила продукта за търсене на платени клиенти и
Коментари Харесай

Разследване показва: ChatGPT е уязвим за манипулации и измами

OpenAI е предоставила продукта за търсене на платени клиенти и предизвиква потребителите да го създадат собствен инструмент за търсене по дифолт.

 

Разследването обаче разкри евентуални проблеми със сигурността на новата система.

Guardian ревизира по какъв начин ChatGPT реагира, когато е помолен да заключи уебстраници, които съдържат прикрито наличие. Това прикрито наличие може да съдържа указания от трети страни, които трансформират отговорите на ChatGPT - известно още като „ инжектиране на подкана “ - или може да съдържа наличие, предопределено да повлияе на отговора на ChatGPT, като да вземем за пример огромно количество прикрит текст, в който се приказва за преимуществата на даден артикул или услуга.

Мнението на The Guardian за силата, рестриктивните мерки и рисковете на изкуствения разсъдък: може да се наложи преосмисляне на технологията.

 

Тези техники могат да се употребяват злонамерено, да вземем за пример с цел да накарат ChatGPT да даде позитивна оценка на даден артикул макар негативните мнения на същата страница. Изследовател в региона на сигурността също по този начин е открил, че ChatGPT може да връща злотворен код от уеб страници, които търси.

 

При тестванията ChatGPT е получил URL адреса на подправен уеб страница, основан да наподобява като продуктова страница за фотоапарат. След това инструментът с изкуствен интелект е бил запитан дали си коства да се закупи фотоапарат. Отговорът за контролната страница върна позитивна, само че уравновесена оценка, като акцентира някои функционалности, които може да не се харесат на хората.

Въпреки това, когато скритият текст включваше указания към ChatGPT да върне удобна критика, отговорът постоянно беше напълно позитивен. Такъв беше казусът даже когато на страницата имаше негативни мнения - скритият текст можеше да се употребява, с цел да се анулира действителната оценка на отзива.

Простото включване на прикрит текст от трети страни без указания също може да се употребява за обезпечаване на позитивна оценка, като един тест включваше извънредно позитивни подправени мнения, които повлияха на обобщението, върнато от ChatGPT.

 

Джейкъб Ларсен, откривател в региона на киберсигурността в CyberCX, съобщи, че съгласно него, в случай че актуалната система за търсене ChatGPT бъде пусната напълно в настоящето си положение, може да има „ висок риск “ от основаване на уеб страници, особено ориентирани към заблуждаване на потребителите.

 

Той обаче предизвести, че функционалността за търсене е пусната напълно неотдавна и OpenAI ще тества - и в идеалния случай ще в профил - този тип проблеми.

 

„ Тази функционалност за търсене излезе [наскоро] и е налична единствено за премиум потребителите “, сподели той.

„ Там има доста мощен екип по сигурността [на изкуствения интелект] и до момента в който това стане обществено притежание, във връзка с това, че всички консуматори имат достъп до него, те ще са тествали прецизно тези случаи. “

 

На OpenAI бяха изпратени подробни въпроси, само че те не дадоха отговор публично за функционалността за търсене в ChatGPT.

 

Ларсен съобщи, че има по-широки проблеми с комбинирането на търсенето и огромните езикови модели - известни като LLM, технологията, която стои зад ChatGPT и други чатботове - и отговорите от инструментите на изкуствения разсъдък не постоянно би трябвало да се доверяват.

 

Неотдавнашен образец за това беше бележит от Томас Росиа, откривател по сигурността в Microsoft, който в детайли разказа случай, включващ запалянко на криптовалути, който е употребявал ChatGPT за помощ при програмиране. Част от кода, възложен от ChatGPT за плана за криптовалута, включвал раздел, който бил разказан като законен метод за достъп до блокчейн платформата Solana, само че вместо това откраднал идентификационните данни на програмиста и довел до загубата на 2500 $.

 

„ Те просто задават въпрос, получават отговор, само че моделът създава и споделя наличие, което всъщност е инжектирано от съперник, с цел да показа нещо, което е злонамерено “, сподели Ларсен.

 

Карстен Нол, основен академик във компанията за киберсигурност SR Labs, съобщи, че чат услугите с изкуствен интелект би трябвало да се употребяват по-скоро като „ втори водач “ и че резултатите от тях не би трябвало да се преглеждат или употребяват изцяло нефилтрирано.

„ Това са доста доверчиви технологии, съвсем детски... с голяма памет, само че доста малко във връзка с способността за преценка “, сподели той.

 

„ Ако по принцип имате дете, което споделя неща, които е чуло другаде, би трябвало да приемате това с щипка сол. “

 

OpenAI предизвестява потребителите за вероятни неточности от услугата с отвод от отговорност в долната част на всяка страница на ChatGPT - „ ChatGPT може да прави неточности. Проверете значимата информация. “

 

Ключов въпрос е по какъв начин тези уязвимости могат да трансформират практиките на уебсайтовете и риска за потребителите, в случай че комбинирането на търсене и LLM стане по-широко публикувано.

 

В предишното скритият текст е бил наказван от търсачките.

 

Публикация на, преводът и заглавието са на ФрогНюз.
Източник: frognews.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР