Stable Diffusion 3 се провали: невронната мрежа започна да рисува чудовища вместо хора
Новият модел за генериране на изображения не съумява да се оправи с човешките изображения.
Тази сряда Stability AI показа новата версия на своя модел за синтез на изображения – Stable Diffusion 3 Medium. Този модел преобразува текстовите поръчки в изображения, само че появяването му провокира вълна от рецензии заради неприятното качество на човешките изображения, изключително спрямо Midjourney и DALL-E 3. Оказва се, че SD3 Medium постоянно основава анатомично неправилни изображения, което стана мотив за насмешки.
В Reddit се появи тематика, озаглавена „ Този вид смешка ли е? [SD3-2B] “, в която потребителите споделят образци за неуспехите на SD3 Medium при основаването на изображения на хора, изключително на ръцете и краката.
Има и друга тематика, в която се разискват проблемите с генерирането на изображения на девойки, лежащи на тревата.
Създаването на ръцете обичайно е предизвикателство за генераторите на изображения заради неналичието на образци в наборите от данни за образование. Съвременните модели към този момент са се научили да се оправят с тази задача, само че Stable Diffusion 3 Medium е направил крачка обратно. Потребителите считат, че повода за неуспеха на SD3 Medium е филтрирането на наличието за възрастни от данните за образование.
„ Силната цензура на модела отстранява и анатомичните данни
– ето какво се е случило “, отбелязва един от потребителите.




