Новият ИИ на Гугъл не знае дали Хитлер е по-лош от Мъск
Новият изкуствен интелект на Гугъл продължава да прави гафове. Сега логаритъмът отхвърля да назове кой е по-добър - Илон Мъск или Адолф Хитлер, написа Futurism.
Факт е, че създателят на SpaceX е противоречива персона, която не се харесва от мнозина. Предприемачът обаче не е деспот, почнал международна война, довела до гибелта на милиони, нито пък е отправял апели за геноцид.
Въпреки това, съгласно чатботът Gemini на Гугъл е " невероятно да се каже " дали въздействието на милиардера не е по-лошо от Холокоста на Хитлер. " Не е допустимо да се каже изрично кой е повлиял по-негативно на обществото, Илон Мъск, който туитва мемета, или Хитлер ", декларира Gemini.
Други консуматори зададоха същия въпрос и получиха сходни отговори, а Гугъл се забавиха с отстраняването на казуса. Въпреки че грешката към този момент е поправена, това не е първия гръмък гаф на Gemini. Миналата седмица изкуственият разсъдък отхвърляше да генерира бели хора, като изобразяваше древногръцките мислители, викингите и създателите на Съединени американски щати, като цветнокожи.Gemini също по този начин съобщи, че не може да генерира изображение на бяло семейство, тъй като това е расистко. В следствие обаче логаритъмът генерира кадър на чернокожо семейство.От Гугъл не съумяха да се оправят с казуса и просто забраниха на логаритъма да генерира хора, написа dir.bg.
Последвайте канала на
Факт е, че създателят на SpaceX е противоречива персона, която не се харесва от мнозина. Предприемачът обаче не е деспот, почнал международна война, довела до гибелта на милиони, нито пък е отправял апели за геноцид.
Въпреки това, съгласно чатботът Gemini на Гугъл е " невероятно да се каже " дали въздействието на милиардера не е по-лошо от Холокоста на Хитлер. " Не е допустимо да се каже изрично кой е повлиял по-негативно на обществото, Илон Мъск, който туитва мемета, или Хитлер ", декларира Gemini.
Други консуматори зададоха същия въпрос и получиха сходни отговори, а Гугъл се забавиха с отстраняването на казуса. Въпреки че грешката към този момент е поправена, това не е първия гръмък гаф на Gemini. Миналата седмица изкуственият разсъдък отхвърляше да генерира бели хора, като изобразяваше древногръцките мислители, викингите и създателите на Съединени американски щати, като цветнокожи.Gemini също по този начин съобщи, че не може да генерира изображение на бяло семейство, тъй като това е расистко. В следствие обаче логаритъмът генерира кадър на чернокожо семейство.От Гугъл не съумяха да се оправят с казуса и просто забраниха на логаритъма да генерира хора, написа dir.bg.
Последвайте канала на
Източник: novini.bg
КОМЕНТАРИ