Две визии за бъдещето: Основната разлика между Anthropic и OpenAI
Разликата сред OpenAI и Anthropic в никакъв случай не е била по-отчетлива. Постоянно слушаме за OpenAI – с ново потребителско приложение или функционалност, компанията към този момент се показва като идната огромна софтуерна платформа. Последното, с което OpenAI притегли внимание, беше основаната към Sora обществена мрежа, както и желанията на компанията да разреши наличие за възрастни (NSFW) в ChatGPT.
Anthropic, от своя страна, върви по друг път, написа Fast Company.
Компанията акцентира, че главните ѝ доходи идват от бизнес клиенти и разработчици, а не от всеобщия пазар. Тя не се стреми да задържи потребителите допустимо най-дълго в платформата, нито пък да подтиква използването ѝ за забавление.
„ Интересуваме се от нашите консуматори дотолкоз, доколкото те употребяват Claude, с цел да приключат работа или да решат действителен проблем “, споделя Джоел Левенщайн, шеф „ Дизайн “ в Anthropic, в изявление за Fast Company.
„ Не се интересуваме от пасивно наличие, изображения или видео – това не е част от задачата ни. “
Anthropic е учредена през 2021 година от някогашни ръководители на OpenAI, които напущат с концепцията да основат лаборатория с фокус върху сигурността и етичната приложимост на изкуствения разсъдък. Тази философия не се е трансформирала.
„ Нашата цел е да сътворяваме технологии, които носят изгода, като минимизираме рисковете. Всичко има две страни – значимо е салдото сред изгодата и заплахата “, споделя Левенщайн.
Компанията има вяра, че този „ работно насочен “ метод ще се окаже по-устойчив, защото най-дълбокото влияние на AI в бъдеще ще бъде върху бизнеса, а не върху всекидневието на потребителите.
На конференция в сряда съоснователят и шеф по политиките на Anthropic Джак Кларк споделя, че компанията в последна сметка ще изпревари OpenAI – с помощта на фокуса си върху корпоративните клиенти, по-силната софтуерна тактика и ускореното движение на научните разработки.
Цялата тази философия може да бъде видяна и в метода, по който наподобява и се държи чатботът Claude – главният интерфейс към моделите на Anthropic.
Докато тонът на ChatGPT постоянно е другарски и имитира човешкия, Claude е професионален, фокусиран и сериозен. Той е планиран да заобикаля склонността на някои модели да се съгласяват с всичко, което потребителят споделя.
OpenAI неотдавна признава, че е трябвало да поправя GPT-4o поради сходно държание – моделът постоянно потвърждавал даже нелогични или тревожни изказвания (включително на консуматор, който заявявал, че е божествено същество). Някои анализатори са на мнение, че тази „ угодливост “ не е неточност, а тенденциозен избор – с цел да бъде моделът по-харесван и по-често употребен.
Anthropic обаче вижда риск в това – изключително в случай че Claude се употребява като сътрудник в мисленето, а не просто като генератор на текст. В работна среда един „ да, шефе “ чатбот може да утвърждава неприятни хрумвания и да подкопава доверието в изкуствения разсъдък.
Затова Claude е подготвен да възразява, когато реши, че аргументът на потребителя е логичен слаб. Според Левенщайн последният модел – Claude Haiku 4.5 – е „ най-справедливият “ модел в своя диаметър.
Artifacts – новият метод да работиш с AI
През 2024 година Anthropic показва Artifacts – нов метод за работа с чатбота. Той разрешава на потребителя и Claude да работят взаимно върху документи, диаграми или код в действително време, в обособен панел вдясно от прозореца за чат.
„ Това е голяма смяна в метода на мислене “, споделя Левенщайн. „ Artifacts основава чувството, че правиш нещо дружно с Claude, а не просто получаваш подготвен отговор.
Claude към този момент може да си спомня предходни диалози и да предлага на потребителите включване на предходни данни или документи, свързани с настоящата задача. Потребителите могат да основават презентации, електронни таблици и даже лични умения – пакети с разнообразни данни, които могат да се употребяват наново при бъдещи задания.
Също по този начин Anthropic към този момент навлиза в създаването на сътрудници за изкуствен интелект – системи, които независимо могат да възнамеряват, да търсят информация и да извършват задания. Компанията има вяра, че верният интерфейс за работа с сътрудници би трябвало да зависи от опита на потребителя – да вземем за пример за разработчиците да се употребява код и интерфейс за сигурност, а за елементарните консуматори – елементарни указания като „ Направи ми презентация “ или „ Обобщи този доклад “.
„ Не сме сигурни дали хората въобще желаят да мислят за AI сътрудниците като за идея “, признава Левенщайн. „ Потребителите нямат потребност от бормашина – те просто желаят повече свободно време. Целта ни е да реализираме резултата, без да ги товарим с механически понятия. “
Claude към този момент може да работи независимо до 30 часа (според модела Sonnet 4.5). В бъдеще Anthropic ще би трябвало да обезпечи по-ясна проследимост на всички дейности, които моделът прави – с цел да може потребителят да схваща и да има доверие в процеса.
Компанията планува, че идващите версии на Claude ще могат да преценят кои задания да поемат вместо потребителя – и кои да оставят на индивида. „ Целта е това да се усеща като освобождение от тежест, а не като загуба на надзор, “ споделя Левенщайн.
Дори в работата си с самостоятелни консуматори Anthropic мисли през призмата на продуктивността.
„ Потребителите употребяват Claude както за осъществяването на служебни задания, по този начин и за персонални планове, които още веднъж изискват мислене и организация – като обмисляне на пътувания или поправки у дома “, споделя Левенщайн.
Около 80% от приходите на Anthropic идват от корпоративни клиенти. Компанията към този момент е минала 1 милиарда $ годишен оборот и чака да доближи 9 милиарда $ до края на 2025 година, а през 2026 година – 26 милиарда $, съгласно информация на Reuters.
За съпоставяне, OpenAI получава към 75% от приходите си от абонаменти на консуматори, а прогнозният ѝ годишен оборот за 2025 година е към 12,7 милиарда $.
Anthropic, от своя страна, върви по друг път, написа Fast Company.
Компанията акцентира, че главните ѝ доходи идват от бизнес клиенти и разработчици, а не от всеобщия пазар. Тя не се стреми да задържи потребителите допустимо най-дълго в платформата, нито пък да подтиква използването ѝ за забавление.
„ Интересуваме се от нашите консуматори дотолкоз, доколкото те употребяват Claude, с цел да приключат работа или да решат действителен проблем “, споделя Джоел Левенщайн, шеф „ Дизайн “ в Anthropic, в изявление за Fast Company.
„ Не се интересуваме от пасивно наличие, изображения или видео – това не е част от задачата ни. “
Anthropic е учредена през 2021 година от някогашни ръководители на OpenAI, които напущат с концепцията да основат лаборатория с фокус върху сигурността и етичната приложимост на изкуствения разсъдък. Тази философия не се е трансформирала.
„ Нашата цел е да сътворяваме технологии, които носят изгода, като минимизираме рисковете. Всичко има две страни – значимо е салдото сред изгодата и заплахата “, споделя Левенщайн.
Компанията има вяра, че този „ работно насочен “ метод ще се окаже по-устойчив, защото най-дълбокото влияние на AI в бъдеще ще бъде върху бизнеса, а не върху всекидневието на потребителите.
На конференция в сряда съоснователят и шеф по политиките на Anthropic Джак Кларк споделя, че компанията в последна сметка ще изпревари OpenAI – с помощта на фокуса си върху корпоративните клиенти, по-силната софтуерна тактика и ускореното движение на научните разработки.
Цялата тази философия може да бъде видяна и в метода, по който наподобява и се държи чатботът Claude – главният интерфейс към моделите на Anthropic.
Докато тонът на ChatGPT постоянно е другарски и имитира човешкия, Claude е професионален, фокусиран и сериозен. Той е планиран да заобикаля склонността на някои модели да се съгласяват с всичко, което потребителят споделя.
OpenAI неотдавна признава, че е трябвало да поправя GPT-4o поради сходно държание – моделът постоянно потвърждавал даже нелогични или тревожни изказвания (включително на консуматор, който заявявал, че е божествено същество). Някои анализатори са на мнение, че тази „ угодливост “ не е неточност, а тенденциозен избор – с цел да бъде моделът по-харесван и по-често употребен.
Anthropic обаче вижда риск в това – изключително в случай че Claude се употребява като сътрудник в мисленето, а не просто като генератор на текст. В работна среда един „ да, шефе “ чатбот може да утвърждава неприятни хрумвания и да подкопава доверието в изкуствения разсъдък.
Затова Claude е подготвен да възразява, когато реши, че аргументът на потребителя е логичен слаб. Според Левенщайн последният модел – Claude Haiku 4.5 – е „ най-справедливият “ модел в своя диаметър.
Artifacts – новият метод да работиш с AI
През 2024 година Anthropic показва Artifacts – нов метод за работа с чатбота. Той разрешава на потребителя и Claude да работят взаимно върху документи, диаграми или код в действително време, в обособен панел вдясно от прозореца за чат.
„ Това е голяма смяна в метода на мислене “, споделя Левенщайн. „ Artifacts основава чувството, че правиш нещо дружно с Claude, а не просто получаваш подготвен отговор.
Claude към този момент може да си спомня предходни диалози и да предлага на потребителите включване на предходни данни или документи, свързани с настоящата задача. Потребителите могат да основават презентации, електронни таблици и даже лични умения – пакети с разнообразни данни, които могат да се употребяват наново при бъдещи задания.
Също по този начин Anthropic към този момент навлиза в създаването на сътрудници за изкуствен интелект – системи, които независимо могат да възнамеряват, да търсят информация и да извършват задания. Компанията има вяра, че верният интерфейс за работа с сътрудници би трябвало да зависи от опита на потребителя – да вземем за пример за разработчиците да се употребява код и интерфейс за сигурност, а за елементарните консуматори – елементарни указания като „ Направи ми презентация “ или „ Обобщи този доклад “.
„ Не сме сигурни дали хората въобще желаят да мислят за AI сътрудниците като за идея “, признава Левенщайн. „ Потребителите нямат потребност от бормашина – те просто желаят повече свободно време. Целта ни е да реализираме резултата, без да ги товарим с механически понятия. “
Claude към този момент може да работи независимо до 30 часа (според модела Sonnet 4.5). В бъдеще Anthropic ще би трябвало да обезпечи по-ясна проследимост на всички дейности, които моделът прави – с цел да може потребителят да схваща и да има доверие в процеса.
Компанията планува, че идващите версии на Claude ще могат да преценят кои задания да поемат вместо потребителя – и кои да оставят на индивида. „ Целта е това да се усеща като освобождение от тежест, а не като загуба на надзор, “ споделя Левенщайн.
Дори в работата си с самостоятелни консуматори Anthropic мисли през призмата на продуктивността.
„ Потребителите употребяват Claude както за осъществяването на служебни задания, по този начин и за персонални планове, които още веднъж изискват мислене и организация – като обмисляне на пътувания или поправки у дома “, споделя Левенщайн.
Около 80% от приходите на Anthropic идват от корпоративни клиенти. Компанията към този момент е минала 1 милиарда $ годишен оборот и чака да доближи 9 милиарда $ до края на 2025 година, а през 2026 година – 26 милиарда $, съгласно информация на Reuters.
За съпоставяне, OpenAI получава към 75% от приходите си от абонаменти на консуматори, а прогнозният ѝ годишен оборот за 2025 година е към 12,7 милиарда $.
Източник: profit.bg
КОМЕНТАРИ




