OpenAI предупреди хората да не се привързват към гласовия вариант на GPT
Някои от вас, които са гледали кино лентата от 2013 с Хоакин Финикс и Скарлет Йохансон „ Тя е глас “ (Her) биха сметнали тази вест за занимателна. А за част от вас – по-скоро злокобна.
По-рано това лято, основателите на ChatGPT OpenAI пуснаха на пазара последната версия на огромния си езиков модел GPT-4o, както и по-малкия му вид – GPT-4o mini. По-рано този месец, компанията показа също по този начин и специфичния гласов режим Advanced Voice Mode за някои консуматори на ChatGPT Plus. Обновлението зарадва мнозина, само че също по този начин и тормози други, до момента в който OpenAI предизвести функционалността да се употребява с едно мислено. Те обявиха, че ползващите я могат да се привържат прочувствено изкуствения разсъдък зад гласа. И това може да има отрицателни или позитивни последствия.
Характеристиката разрешава воденето на диалог с ChatGPT на натурален човешки език. Това разрешава достъпността до услугата, само че също по този начин и размива границите, които нормално се съблюдават сред човек и машини. Темата също по този начин повдига за следващ път въпроса за етичните отговорност, с които са натоварени компании като OpenAI, пишат Spiceworks. Емили Търкъл от MIT споделя, че изреченото слово, съпоставено с текста би могло да зареди по друг метод взаимоотношението сред човек и машина. И по този метод хората да стартират да преглежда машината, като освен това от инструмент.
Всъщност, първите тествали характерността се съгласяват с едно сходно съмнение. Те предават, че усещат връзка с изкуствения разсъдък. Описват отговорите му като успокояващи. А съгласно други, гласовият режим може да се усъвършенства още и да бъде по персонализиран и заангажиран към общуващия с него. Според Spiceworks, това може да помогне на хора, които се усещат самотни или са лишени от прочувствена врзъка с различен човек. Сигурно. А може би по-добре да се доверим на законите на Мърфи. Първият от тях да вземем за пример гласи, че в случай че нещо може да се обърка, то то се обърква.
Така да вземем за пример в документ, оповестен от Гугъл DeepMind през април гласа на чатботовете основават усещането за (измамна) фамилиарност. Доктор Маргарет Мичъл, специалист в региона на AI етиката и някогашен чиновник на Гугъл предава за съответни рискове. „ Има риск, че в случай че хората поддържат връзка по-дълго с изкуствения разсъдък по човешки метод, те може да стартират да чакат сходни взаимоотношения от действителните хора. Което на собствен ред да промени обществената динамичност “, счита тя.




