Изкуственият интелект става предпочитан инструмент за дезинформация в навечерието на

...
Изкуственият интелект става предпочитан инструмент за дезинформация в навечерието на
Коментари Харесай

OpenAI предупреди за „лоши актьори” покрай изборите


Изкуственият разсъдък става желан инструмент за дезинформация в навечерието на основни избори по света (снимка: CC0 Public Domain)

OpenAI, разработчикът на изкуствения разсъдък ChatGPT, предизвести, че „ неприятните артисти ” употребяват неговата платформа, с цел да повлияят на демократичните избори по целия свят, които предстоят тази есен.

В отчет от 54 страници, оповестен в сряда, основателят на ChatGPT твърди, че е прекъснал повече от 20 интервенции и лъжливи мрежи от цялостен ​​свят, които са се пробвали да употребяват неговите модели. Заплахите варират от генерирани от AI публикации в уеб страници до изявления в обществените медии от подправени сметки, заяви CNBC.

OpneAI споделя, че актуалната актуализация за „ въздействие и кибероперации ” има за цел да даде „ моментна фотография ” на това, което вижда, и да разпознава „ първичен набор от трендове, за които има вяра, че могат да дадат информация по какъв начин AI се вписва в по-широкия пейзаж на заканите ”.

Докладът на OpenAI се появява по-малко от месец преди президентските избори в Съединени американски щати. Това е значима година за избори в международен мащаб, които засягат над 4 милиарда души допълнително от 40 страни.

Нарастването на наличието, генерирано от AI, докара до съществени опасения за дезинформация, обвързвана с изборите. Броят на основаните дълбоки имитации се усилва с 900% всяка година, съгласно данни от Clarity, компания за машинно образование.

Дезинформацията в изборите не е ново събитие. Това беше главен проблем, датиращ от президентската акция в Съединени американски щати през 2016 година, когато„ съветски артисти откриха евтини и лесни способи за разпространяване на подправено наличие в обществените платформи ”, отбелязва CNBC. През 2020 година обществените мрежи бяха залети с дезинформация за имунизациите против Covid и изборните измами.

Притесненията на законодателите през днешния ден са по-фокусирани върху възхода на генеративния AI, който стартира в края на 2022 година с стартиране на ChatGPT и в този момент се възприема от компании от всевъзможен размер.

OpenAI написа в отчета си, че обвързваните с изборите използва на AI „ варират по трудност от елементарни поръчки за генериране на наличие до комплицирани, многоетапни старания за анализиране и отговаряне на изявления в обществените медии ”. Съдържанието на обществените медии е обвързвано най-вече с избори в Съединени американски щати и Руанда и в по-малка степен с избори в Индия и Европейски Съюз, споделят от OpenAI.

В края на август иранска интервенция употребява продуктите на OpenAI, с цел да генерира „ публикации с дълга форма ” и мнения в обществените медии по отношение на изборите в Съединени американски щати, както и други тематики. Но OpenAI прецизира, че по-голямата част от разпознатите изявления са получили малко или никакви лайкове, споделяния и мнения.

През юли компанията забрани сметки в ChatGPT в Руанда, които разгласиха мнения, свързани с избори, в X. А през май израелска компания употребява ChatGPT, с цел да генерира мнения в обществените медии за избори в Индия. OpenAI твърди, че е съумяла да се оправи със случая в границите на по-малко от 24 часа.

През юни OpenAI се занимаваше с загадка интервенция, която употребява нейните артикули за генериране на мнения за изборите за Европейски парламент във Франция и политиката в Съединени американски щати, Германия, Италия и Полша. Компанията съобщи, че до момента в който множеството изявления в обществените медии, които е идентифицирала, са получили малко лайкове или споделяния, някои действителни хора са дали отговор на изявленията, генерирани от AI.

Нито една от интервенциите, свързани с изборите, не съумя да притегли „ вирусна ангажираност ” или да построи „ устойчива аудитория ” посредством потребление на ChatGPT и другите принадлежности на OpenAI, заключава компанията.
Източник: technews.bg


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР