„Притеснен съм“: Създателят на ChatGPT настоява за контрол върху изкуствения интелект
Главният изпълнителен шеф на OpenAI – компанията зад ChatGPT, съобщи пред сенатска комисия, че потреблението на изкуствен интелект за интервенция в честността на изборите е „ забележителна област на безпокойствие “. В тази връзка той прикани за регулация.
„ Притеснен съм от това “, съобщи Сам Алтман за изборите и изкуствения разсъдък, като настоя, че са нужни правила и насоки.
В продължение на месеци огромни и дребни компании се хвърлиха в луда конкуренция, пробвайки се да предложат по-добра и универсална AI технология. За задачата зареждат логаритмите с големи количества данни и наливат в разработките милиарди долари. Някои критици се притесняват, че изкуственият разсъдък ще изостри към този момент съществуващи публични недъзи, измежду които предубеждения и дезинформация. Други стигат по-далеч и предизвестяват, че AI може да постави завършек на самото човечество.
„ Няма метод да сложим този джин в бутилката. В международен мащаб това е детонация “, сподели сенатор Кори Букър, един от многото законодатели с куп въпроси по отношение на това по какъв начин най-добре да се контролира AI. Колегата му Мази Хироно означи заплахата от дезинформация с наближаването на президентския избор през 2024 година „ В подтекста на изборите, да вземем за пример, видях фотография на някогашния президент Тръмп, задържан от полицията в Ню Йорк, и това се популяризира вирусно “, сподели тя, притискайки Алтман за мнение по въпроса с подправените изображения.
Според него основателите би трябвало ясно да посочат по кое време обещано изображение е генерирано, а не фактическо. Говорейки за първи път пред Конгреса, Алтман още веднъж изложи концепцията за основаването на американска организация за лицензиране на AI, която би могла да се назовава Служба за сигурност и сигурност на инфраструктурата на AI (OASIS). Относно това кои компании и действия би трябвало да подлежат на лицензиране, той съобщи, че модел, който може да манипулира убежденията на човек, би бил образец за „ огромен предел “.
Също по този начин фирмите би трябвало да имат право да заявят, че не желаят техните данни да се употребяват за образование на AI, добави Алтман. Наличните материали в обществената мрежа обаче съгласно него са в областта на честната игра.
Белият дом свика водещи изпълнителни шефове в региона на технологиите, в това число Сам Алтман, с цел да обсъдят все по-важния въпрос за приложението и регулирането на изкуствения разсъдък. Законодатели търсят и по какъв начин да усилят изгодите от технологията и националната сигурност, като в същото време лимитират злоупотребите с нея. Консенсусът надалеч не е сигурен.
„ Разбираме, че хората са обезпокоени от това по какъв начин това може да промени метода ни на живот. Ние също сме “, призна Сам Алтман по време на чуването. „ Ако тази технология се обърка, тя може да се обърка много. “
Според него обаче е значимо е да се разбере, че GPT-4 е инструмент, а не творение, визирайки най-новата версия на системата, която ръководи ChatGPT. „ И това е инструмент, върху който хората имат огромен надзор. “
·
„ Притеснен съм от това “, съобщи Сам Алтман за изборите и изкуствения разсъдък, като настоя, че са нужни правила и насоки.
В продължение на месеци огромни и дребни компании се хвърлиха в луда конкуренция, пробвайки се да предложат по-добра и универсална AI технология. За задачата зареждат логаритмите с големи количества данни и наливат в разработките милиарди долари. Някои критици се притесняват, че изкуственият разсъдък ще изостри към този момент съществуващи публични недъзи, измежду които предубеждения и дезинформация. Други стигат по-далеч и предизвестяват, че AI може да постави завършек на самото човечество.
„ Няма метод да сложим този джин в бутилката. В международен мащаб това е детонация “, сподели сенатор Кори Букър, един от многото законодатели с куп въпроси по отношение на това по какъв начин най-добре да се контролира AI. Колегата му Мази Хироно означи заплахата от дезинформация с наближаването на президентския избор през 2024 година „ В подтекста на изборите, да вземем за пример, видях фотография на някогашния президент Тръмп, задържан от полицията в Ню Йорк, и това се популяризира вирусно “, сподели тя, притискайки Алтман за мнение по въпроса с подправените изображения.
Според него основателите би трябвало ясно да посочат по кое време обещано изображение е генерирано, а не фактическо. Говорейки за първи път пред Конгреса, Алтман още веднъж изложи концепцията за основаването на американска организация за лицензиране на AI, която би могла да се назовава Служба за сигурност и сигурност на инфраструктурата на AI (OASIS). Относно това кои компании и действия би трябвало да подлежат на лицензиране, той съобщи, че модел, който може да манипулира убежденията на човек, би бил образец за „ огромен предел “.
Също по този начин фирмите би трябвало да имат право да заявят, че не желаят техните данни да се употребяват за образование на AI, добави Алтман. Наличните материали в обществената мрежа обаче съгласно него са в областта на честната игра.
Белият дом свика водещи изпълнителни шефове в региона на технологиите, в това число Сам Алтман, с цел да обсъдят все по-важния въпрос за приложението и регулирането на изкуствения разсъдък. Законодатели търсят и по какъв начин да усилят изгодите от технологията и националната сигурност, като в същото време лимитират злоупотребите с нея. Консенсусът надалеч не е сигурен.
„ Разбираме, че хората са обезпокоени от това по какъв начин това може да промени метода ни на живот. Ние също сме “, призна Сам Алтман по време на чуването. „ Ако тази технология се обърка, тя може да се обърка много. “
Според него обаче е значимо е да се разбере, че GPT-4 е инструмент, а не творение, визирайки най-новата версия на системата, която ръководи ChatGPT. „ И това е инструмент, върху който хората имат огромен надзор. “
·
Източник: boulevardbulgaria.bg
КОМЕНТАРИ




