Новият модел за генериране на изображения не успява да се

...
Новият модел за генериране на изображения не успява да се
Коментари Харесай

Stable Diffusion 3 се провали: невронната мрежа започна да рисува чудовища вместо хора

Новият модел за генериране на изображения не съумява да се оправи с човешките изображения.

Тази сряда Stability AI показа новата версия на своя модел за синтез на изображения – Stable Diffusion 3 Medium. Този модел преобразува текстовите поръчки в изображения, само че появяването му провокира вълна от рецензии заради неприятното качество на човешките изображения, изключително спрямо Midjourney и DALL-E 3. Оказва се, че SD3 Medium постоянно основава анатомично неправилни изображения, което стана мотив за насмешки.

В Reddit се появи тематика, озаглавена „ Този вид смешка ли е? [SD3-2B] “, в която потребителите споделят образци за неуспехите на SD3 Medium при основаването на изображения на хора, изключително на ръцете и краката.

Има и друга тематика, в която се разискват проблемите с генерирането на изображения на девойки, лежащи на тревата.

Създаването на ръцете обичайно е предизвикателство за генераторите на изображения заради неналичието на образци в наборите от данни за образование. Съвременните модели към този момент са се научили да се оправят с тази задача, само че Stable Diffusion 3 Medium е направил крачка обратно. Потребителите считат, че повода за неуспеха на SD3 Medium е филтрирането на наличието за възрастни от данните за образование.

„ Силната цензура на модела отстранява и анатомичните данни

– ето какво се е случило “, отбелязва един от потребителите.
Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР