Openai признава, че новите модели увеличават риска от злоупотреба за създаване на биологични земедели
Последните модели на Openai „ свястно “ са нараснали риска, че изкуственият разсъдък ще бъде злоупотребяван за основаване на биологични оръжия, признава компанията.
Базираната в Сан Франциско група разгласи новите си модели, известни като O1, в четвъртък, като разгласи новите си качества да разсъждават, да вземат решение проблеми с математиката и да дават отговор на научните проучвателен въпроси. Тези достижения се преглеждат като решителен пробив в напъните за основаване на неестествен общ интелект-машини с знание на равнище човешко.
Системната карта на Openai, инструмент за пояснение по какъв начин AI работи, съобщи, че новите модели имат „ междинен риск “ за проблеми, свързани с химически, биологични, радиологични и нуклеарни (CBRN) оръжия - най -високият риск от този риск, който Openai в миналото е давал за своите модели. Компанията съобщи, че това значи, че технологията " свястно е подобрила " способността на специалистите да основават биологични източници.
AI програмен продукт с по-напреднали въ...
Прочетете целия текст »