Главные новости » Эксклюзив » Конфликт компании Anthropic с правительством США выявляет более глубокие разногласия по вопросам управления искусственным интеллектом, рисков и контроля
Эксклюзив

Конфликт компании Anthropic с правительством США выявляет более глубокие разногласия по вопросам управления искусственным интеллектом, рисков и контроля

494
Материал подготовлен K-News. Разрешение редакции K-News необходимо для копирования или частичного использования текста.

Конфликт между Anthropic PBC и Министерством обороны США выявляет ключевые противоречия в сфере искусственного интеллекта, касающиеся контроля за мощными ИИ-системами. Пол Гиллин сообщает об этом.

Начавшиеся как разногласия по контрактам и политическим вопросам, споры быстро переросли в более обширную дискуссию о национальной безопасности и корпоративной ответственности в области новых технологий.

Суть разногласий заключается в решении Пентагона, который классифицировал Anthropic как «рисковую компанию в цепочке поставок», что фактически ограничивает использование ее моделей в оборонных системах. Позднее президент Дональд Трампдал распоряжение всем федеральным учреждениям прекратить сотрудничество с Anthropic.

Хотя данное решение было оспорено в суде и в настоящее время временно приостановлено, его влияние уже ощущается в различных отраслях информационных технологий и разработки ИИ.

В отчете компании Gartner Inc. от конца марта отмечается, что данный инцидент подчеркивает, насколько глубоко интегрированы модели ИИ в программное обеспечение и насколько они подвержены политическим рискам. «Исключение Anthropic демонстрирует, как быстро зависимости от встроенных моделей могут стать структурным техническим долгом», — говорится в отчете, где также подчеркивается, что даже незначительные изменения в работе моделей могут потребовать масштабной перепроверки функционала и потенциально нарушить работу производственных процессов.

Компания Anthropic настаивает на ограничении применения своих моделей, особенно в областях, таких как массовое наблюдение и автономное оружие. Это вызвало дискуссию о том, должны ли частные компании устанавливать этические нормы для технологий, которые имеют социальные и геополитические последствия.

Издание SiliconANGLE обратилась к экспертам в области ИИ и руководителям компаний. Хотя большинство отказались комментировать этот спор, те, кто согласился, в основном поддержали право Anthropic устанавливать ограничения на использование своих технологий.

Спор о контроле


Некоторые эксперты утверждают, что Пентагон преувеличивает, заявляя о риске в цепочке поставок. Дэвид Линтикум, специалист по облачным технологиям и ИИ, считает, что конфликт больше связан с различиями в допустимом использовании технологий, чем с уязвимостями в безопасности.

«Если компания утверждает, что не желает, чтобы ее ИИ использовался в определенных военных целях или для внутреннего наблюдения, это вопрос политики и управления», — пояснил он.

Карлос Монтемайор, профессор философии в Университете штата Сан-Франциско, более критично оценил действия правительства, полагая, что они могут носить карательный характер. «Правительство наказывает Anthropic за несоблюдение требований», — сказал он, охарактеризовав это как неоправданный шаг и потенциальный сигнал для других поставщиков ИИ о необходимости соответствовать федеральным предписаниям.

Это расхождение в интерпретации подчеркивает более широкую неопределенность: следует ли рассматривать ИИ как взаимозаменяемые программные компоненты или как стратегические активы, требующие согласования с государственными приоритетами?

Линтикум поддерживает идею предоставления компаниям права и ответственности устанавливать ограничения. «Если компания разрабатывает мощные технологии, она имеет полное право указывать, что она будет поддерживать, а что нет», — добавил он, однако подчеркнул, что такие решения не должны приниматься в изоляции. Все: правительства, суды и потребители — должны влиять на формирование допустимого использования.

Валенс Хауден, научный сотрудник Info-Tech Research Group Inc., также поддержал эту точку зрения, отмечая, что организации «обязаны формулировать этические границы и варианты использования своих технологий», особенно в условиях, когда системы ИИ становятся все более автономными.

В то же время другие выступают против корпоративного саморегулирования. Монтемайор подчеркивает, что предоставление компаниям возможности устанавливать собственные этические нормы «неприемлемо и опасно», учитывая масштабы и влияние ИИ. «С этической точки зрения компании не должны определять, что правильно или неправильно для общества на глобальном уровне», — утверждает он.

Он призывает к международному регулированию на основе принципов прав человека, предостерегая, что текущие подходы создают «слишком много неопределенности для будущего этой технологии».

Аналитики Gartner указывают, что подобные решения часто являются компромиссами в бизнесе. Договорные ограничения на использование технологий распространены, но их соблюдение может быть сложным. В случае с Anthropic ограничения в области автономного оружия могут отражать не только этические соображения, но и технические ограничения. «Современные ИИ-системы просто недостаточно надежны для использования в полностью автономном оружии», — отметил генеральный директор Anthropic Дарио Амодей.

Доверие как конкурентное преимущество


Несмотря на серьезные государственные ограничения, которые могут показаться катастрофическими для Anthropic, эксперты полагают, что позиция компании может в итоге укрепить ее позиции на корпоративном рынке.

Марк Фернандес, стратег компании Neurologyca Science & Marketing SL, подчеркивает, что важным аспектом является долгосрочное доверие. «Соблюдение ограничений может обойтись [Anthropic] дорого в краткосрочной перспективе», — сказал он, — «но четкие границы создают впечатление надежности в условиях высокой ставки. Со временем такая надежность становится значительным конкурентным преимуществом».

Линтикум согласен, что последовательность важна. «Многие корпоративные клиенты хотят быть уверены, что у поставщика есть четкие ценности и он будет придерживаться их даже под давлением», — отметил он. Таким образом, позиция Anthropic может сделать компанию «более привлекательной для многих клиентов, а не менее», при условии, что ее политика будет четко сформулирована и последовательно реализована.

Хауден из Info-Tech также подчеркивает важность доверия, отмечая, что соблюдение ограничений «возможно, пошло им на пользу в отрасли, где доверие и честность не всегда были нормой».

Недопонимания в управлении


Некоторые эксперты отмечают, что текущий спор отражает более глубокие недоразумения относительно природы ИИ и методов его управления.

Генеральный директор Anaconda Inc. Дэвид ДеСанто в своем посте в LinkedIn заявил, что Пентагон воспринимает ИИ как «улучшенную версию Microsoft Excel — инструмент, который можно купить и использовать по своему усмотрению». — Но это не суть технологий ИИ», — добавил он.

В отличие от простых электронных таблиц, системы ИИ способны к «самостоятельным действиям и суждениям», что требует новых подходов к управлению, которые не могут быть просто интегрированы в существующие модели закупок и надзора. По мнению ДеСанто, этот разрыв очевиден не только в правительстве, но и в частных компаниях, где руководители часто считают, что могут «приладить ИИ к существующей инфраструктуре и разобраться с вопросами управления позже».

Стив Кроче, технический директор Anaconda Field, предостерег от «нормализации отклонений», когда организации ослабевают в своей бдительности, пока системы работают без явных сбоев.

«Когда такие компании, как Anthropic, начинают снижать стандарты безопасности, это создает прецедент», — отметил он. Организациям следует уделить первостепенное внимание «суверенитету ИИ», то есть способности устанавливать и обеспечивать соблюдение собственных мер безопасности, а не полагаться на внешних поставщиков.

Практические последствия для бизнеса


Спор вокруг Anthropic, помимо этических и политических аспектов, скорее всего, заставит организации столкнуться с практическими проблемами внедрения ИИ, как подчеркивают аналитики Gartner.

В отличие от программного обеспечения для повышения производительности, смена модели не эквивалентна простой замене бэкэнда. Это часто требует радикальной переработки рабочих процессов, переобучения систем и перенастройки показателей эффективности. «Принудительная замена модели — это не только задача проверки», — отмечается в отчете. — Это переобучение системы, зависящей от ИИ».

Ситуация создает парадокс: организации, которые инвестируют значительные средства в оптимизацию рабочих процессов на основе ИИ, могут достигнуть высокой производительности, но столкнуться с большими трудностями, когда изменения в политике вынуждают их сменить поставщика.

Gartner настоятельно рекомендует руководителям инженерных подразделений рассматривать «нестабильность поставщиков как непосредственный риск для непрерывности работы» и проектировать системы с учетом переносимости, модульности и возможности быстрой замены.

Очевидно, что ИИ уже не просто техническая проблема, а вопрос управления, затрагивающий бизнес-стратегию, национальную безопасность и общественные ценности. Исход этого конфликта, вероятно, повлияет на то, как будут уравновешены эти зачастую противоречивые приоритеты в ближайшие годы.

Статья Конфликт компании Anthropic с правительством США выявляет более глубокие разногласия по вопросам управления искусственным интеллектом, рисков и контроля впервые появилась на K-News.
0 комментариев
Обсудим?
Смотрите также:
Продолжая просматривать сайт report.kg вы принимаете политику конфидициальности.
ОК