Експерти: Чатботове са обречени вечно да съчиняват лъжи
Не е загадка, че чатботовете с изкуствен интелект, като ChatGPT на OpenAI, са прекомерно склонни да си измислят информация. Те са също толкоз положителни в измислянето на обстоятелства, колкото и в това да ви оказват помощ в работата - и когато смесят двете неща, може да се стигне до злополука, оповестява " The Byte ".
Две неистини и една истина
Въпросът дали хората, които създават изкуствения разсъдък, могат да решат този проблем, остава предмет на полемика. Някои специалисти, в това число мениджъри, които оферират тези принадлежности на пазара, настояват, че тези чатботове са обречени постоянно да съчиняват неистини, макар всички старания на основателите им.
" Не мисля, че през днешния ден има модел, който да не страда от някаква заблуда ", сподели Даниела Амодей, съосновател и президент на Anthropic, основател на чатбота с изкуствен интелект Claude 2, имайки поради генерирането на неточни текстове.
" Чатботовете в действителност са основани, с цел да предсказват идната дума ", добави тя. " И по този начин, ще има някакъв % опция, в който моделът постоянно ще прави тази задача неопределено. "
А това не вещае нищо положително, като се има поради, че софтуерните компании са вложили доста в технологиите. Например Гугъл, която скрито предлага на огромните вестници генератор на вести, основан на изкуствен интелект. Други новинарски организации към този момент опитват с технологията, като основават наличие, генерирано от изкуствен интелект, което постоянно е изпълнено с грешки. С други думи, без опцията чатботовете да поправят неприятната податливост да си измислят, фирмите може да се сблъскат с огромни усложнения, до момента в който изследват нови способи за потребление на технологията.
" Това не може да се поправи ", безапелационна е Емили Бендър, професор по филология и шеф на Лабораторията за компютърна филология към Вашингтонския университет. " То е присъщо на несъответствието сред технологията и препоръчаните способи на приложимост. Според Бендър единствено " по случайност, генерираният текст от ИИ текст, може да бъде интерпретиран като нещо, което ние хората считаме за вярно. "
Технологичните водачи обаче са оптимистично настроени, което не е напълно изненадващо, като се има поради, че става въпрос за милиарди долари.
" Мисля, че ще успеем да намерим решение на казуса ", съобщи основният изпълнителен шеф на OpenAI Сам Алтман пред публика в Индия по-рано тази година. " Смятам, че това ще ни отнеме година и половина, две години. Нещо такова. "
Компании като OpenAI и Anthropic в този момент са въвлечени в сложна борба. Ако има нещо несъмнено, то е, че да накараме чатботовете да споделят истината по благонадежден метод ще бъде всичко друго, само че не и елементарно, в случай че въобще е допустимо. /БГНЕС




