Лични страхове, болки и тайни в ChatGPT? Google може да ги е направил публични
Разговори с ChatGPT, които потребителите споделят с другари, семейство или сътрудници, се индексират от Гугъл - трансформирайки персонални и интимни известия, предопределени за стеснен кръг, в обществено налични резултати в търсачката.
При нормално търсене в Гугъл по част от линка, който се генерира при натискане на бутона „ Share “ в ChatGPT, могат да се открият хиляди чатове, в които хората разкриват надълбоко персонални елементи - битка със зависимости, претърпяно принуждение, психологични болести, даже страхове, че самите AI системи ги шпионират.
Макар ChatGPT да не демонстрира непосредствено самоличността на потребителите, някои от тях се разпознават посредством съответна информация, споделена в хода на диалозите, предава Fast Company.
Потребителят може да натисне „ Share “, с цел да изпрати линка към диалог на непосредствен човек в WhatsApp или да го резервира за себе си, само че е малко евентуално да подозира, че по този начин този линк може да се окаже индексиран от Гугъл и забележим за всеки. Не е ясно дали засегнатите хора въобще осъзнават, че споделените им диалози към този момент са обществено налични.
В момента сходно търсене в Гугъл извежда близо 4 500 резултата - въпреки че действителният брой евентуално е по-висок, защото не всички страници се индексират. Част от диалозите съдържат имена, местонахождение и описания на персонални условия.
Гугъл индексира всяко наличие, налично в отворената мрежа, а притежателите на уеб сайтове могат да изискат унищожаване на страници от резултатите. Споделените линкове в ChatGPT по дифолт не би трябвало да се появяват в търсачките - те стават забележими единствено в случай че потребителят ръчно направи връзката налична.
OpenAI предизвестява потребителите да не споделят сензитивна информация и разрешава заличаване на линковете когато и да е.
Сред засегнатите диалози има такива, в които се разказва половият живот на консуматор, неговата контузия от живот в чужбина и претърпяно посттравматично стресово разстройство. В други случаи се разискват прояви на психопатично държание при деца или се споделят персонални истории, свързани с психическа операция и опити за справяне с следствията.
„ Шокирана съм “, споделя Кариса Велиз, експерт по нравственос на изкуствения разсъдък от Оксфордския университет, пред Fast Company.
„ Като откривател на поверителността знам, че тези данни не са частни - само че това, че Гугъл индексира толкоз чувствителни диалози, е просто поразително. “
Подобни опасения са повдигнати и за други чатботове - в това число тези на Meta, които започнаха да демонстрират обществено част от потребителските поръчки в интерфейса на своите AI приложения. Според специалисти, доста консуматори не осъзнават, че шерването на информация в такива платформи може да докара до приключване на персонални данни - безпокойство, което след това се удостовери.
Велиз предизвестява, че това евентуално демонстрира накъде се движи цялата промишленост:
„ Това е още едно доказателство, че компанията OpenAI не е надеждна и не приема поверителността съществено - без значение какво настояват. Важни са дейностите, не думите. “
Главният изпълнителен шеф на OpenAI Сам Алтман неотдавна самичък предизвести потребителите да не споделят прекомерно персонална информация с ChatGPT, тъй като компанията може да бъде принудена да я съобщи при правосъдно предписание.
„ Според мен това е изцяло сбъркано “, разяснява той в диалог с подкастъра Тео Вон - въпреки тематиката за индексирането на персонални чатове да не беше упомената съответно.
„ Хората чакат, че могат да употребяват ChatGPT изцяло поверително “, споделя Рейчъл Тобак, анализатор по киберсигурност и изпълнителен шеф на SocialProof Security.
„ Но действителността е, че доста консуматори не осъзнават, че платформата има функционалности, посредством които персоналните им въпроси, истории и страхове могат несъзнателно да изтекат в мрежата. “
При нормално търсене в Гугъл по част от линка, който се генерира при натискане на бутона „ Share “ в ChatGPT, могат да се открият хиляди чатове, в които хората разкриват надълбоко персонални елементи - битка със зависимости, претърпяно принуждение, психологични болести, даже страхове, че самите AI системи ги шпионират.
Макар ChatGPT да не демонстрира непосредствено самоличността на потребителите, някои от тях се разпознават посредством съответна информация, споделена в хода на диалозите, предава Fast Company.
Потребителят може да натисне „ Share “, с цел да изпрати линка към диалог на непосредствен човек в WhatsApp или да го резервира за себе си, само че е малко евентуално да подозира, че по този начин този линк може да се окаже индексиран от Гугъл и забележим за всеки. Не е ясно дали засегнатите хора въобще осъзнават, че споделените им диалози към този момент са обществено налични.
В момента сходно търсене в Гугъл извежда близо 4 500 резултата - въпреки че действителният брой евентуално е по-висок, защото не всички страници се индексират. Част от диалозите съдържат имена, местонахождение и описания на персонални условия.
Гугъл индексира всяко наличие, налично в отворената мрежа, а притежателите на уеб сайтове могат да изискат унищожаване на страници от резултатите. Споделените линкове в ChatGPT по дифолт не би трябвало да се появяват в търсачките - те стават забележими единствено в случай че потребителят ръчно направи връзката налична.
OpenAI предизвестява потребителите да не споделят сензитивна информация и разрешава заличаване на линковете когато и да е.
Сред засегнатите диалози има такива, в които се разказва половият живот на консуматор, неговата контузия от живот в чужбина и претърпяно посттравматично стресово разстройство. В други случаи се разискват прояви на психопатично държание при деца или се споделят персонални истории, свързани с психическа операция и опити за справяне с следствията.
„ Шокирана съм “, споделя Кариса Велиз, експерт по нравственос на изкуствения разсъдък от Оксфордския университет, пред Fast Company.
„ Като откривател на поверителността знам, че тези данни не са частни - само че това, че Гугъл индексира толкоз чувствителни диалози, е просто поразително. “
Подобни опасения са повдигнати и за други чатботове - в това число тези на Meta, които започнаха да демонстрират обществено част от потребителските поръчки в интерфейса на своите AI приложения. Според специалисти, доста консуматори не осъзнават, че шерването на информация в такива платформи може да докара до приключване на персонални данни - безпокойство, което след това се удостовери.
Велиз предизвестява, че това евентуално демонстрира накъде се движи цялата промишленост:
„ Това е още едно доказателство, че компанията OpenAI не е надеждна и не приема поверителността съществено - без значение какво настояват. Важни са дейностите, не думите. “
Главният изпълнителен шеф на OpenAI Сам Алтман неотдавна самичък предизвести потребителите да не споделят прекомерно персонална информация с ChatGPT, тъй като компанията може да бъде принудена да я съобщи при правосъдно предписание.
„ Според мен това е изцяло сбъркано “, разяснява той в диалог с подкастъра Тео Вон - въпреки тематиката за индексирането на персонални чатове да не беше упомената съответно.
„ Хората чакат, че могат да употребяват ChatGPT изцяло поверително “, споделя Рейчъл Тобак, анализатор по киберсигурност и изпълнителен шеф на SocialProof Security.
„ Но действителността е, че доста консуматори не осъзнават, че платформата има функционалности, посредством които персоналните им въпроси, истории и страхове могат несъзнателно да изтекат в мрежата. “
Източник: profit.bg
КОМЕНТАРИ




