Может ли Пентагон использовать CHATGPT в своих целях. OPENAI не отвечает

Компания, занимающаяся разработкой искусственного интеллекта, ничего не говорит об использовании ChatGPT военной разведкой, несмотря на прямой запрет в своей политике этики.

В то время как автоматизированные генераторы текста быстро и ослепительно продвинулись от фантазии к новинке и реальному инструменту, они начинают достигать неизбежной следующей фазы: оружия. Пентагон и разведывательные службы открыто планируют использовать такие инструменты, как ChatGPT, для продвижения своей миссии — но компания, стоящая за мега-популярным чатботом, хранит молчание.

OpenAI, титан исследований и разработок стоимостью около 30 миллиардов долларов, стоящий за ChatGPT, предоставляет публичный список этических норм, которые он не будет переступать, не будет заниматься бизнесом, каким бы прибыльным он ни был, на том основании, что это может навредить человечеству. Среди многих запрещенных случаев использования, OpenAI говорит, что он заранее исключил военные и другие «высокорискованные» правительственные приложения. Подобно своим конкурентам, Google и Microsoft, OpenAI охотно декларирует свои высокие ценности, но не желает искренне обсуждать, что эти предполагаемые ценности означают на практике, и как — или даже если — они будут применяться.

«Если и есть что-то, что можно вынести из того, что вы здесь наблюдаете, так это слабость того, что компании должны сами наводить порядок».

Эксперты по политике в области ИИ, которые, говорят, что молчание компании показывает внутреннюю слабость саморегулирования, позволяя таким фирмам, как OpenAI, казаться принципиальными для нервной общественности, поскольку они разрабатывают мощную технологию, масштабы которой пока неясны. «Если и можно что-то вынести из того, что вы здесь наблюдаете, так это слабость того, что компании должны сами себя контролировать», — сказала Сара Майерс Вест, управляющий директор Института AI Now и бывший советник по ИИ в Федеральной торговой комиссии.

Вопрос о том, допустит ли OpenAI милитаризацию своих технологий, не является академическим. 8 марта Альянс разведки и национальной безопасности собрался в северной Вирджинии на свою ежегодную конференцию по новым технологиям. На конференции собрались представители частного сектора и правительства, а именно Пентагона и соседних шпионских агентств — желающие узнать, как американский аппарат безопасности может присоединиться к корпорациям по всему миру в быстром внедрении методов машинного обучения. Во время сессии вопросов и ответов заместителю директора по возможностям Национального агентства геопространственной разведки Филиппу Чудобе был задан вопрос о том, как его ведомство может использовать ИИ. Он дал развернутый ответ:

Мы все смотрим на ChatGPT и на то, как эта технология становится полезной и пугающей. … Мы ожидаем, что… мы будем развиваться в направлении, где у нас будет столкновение GEOINT, ИИ, ИИ/МЛ, аналитического ИИ/МЛ и некоторых из этих ChatGPT вещей, которые действительно смогут предсказывать вещи, о которых человек-аналитик, возможно, не подумал, возможно, из-за опыта, или воздействия, и так далее».

Если отбросить жаргон, видение Чудобы ясно: использование возможностей предикативного текста ChatGPT (или чего-то подобного) для помощи человеческим аналитикам в интерпретации мира. Национальное агентство геопространственной разведки, или NGA, относительно малоизвестная организация по сравнению со своими трехбуквенными собратьями, является главным в стране специалистом по геопространственной разведке, часто называемой GEOINT. Эта практика включает в себя обработку огромного количества географической информации — карт, спутниковых фотографий, данных о погоде и т.п.,чтобы дать военным и шпионским агентствам точную картину происходящего на Земле. «Все, кто плавает на американских кораблях, летает на американских самолетах, принимает решения по национальной политике, ведет войны, определяет местонахождение целей, реагирует на стихийные бедствия или даже ориентируется с помощью мобильного телефона, полагаются на NGA», — хвастается агентство на своем сайте. 14 апреля газета Washington Post сообщила о документах NGA, в которых подробно описаны возможности наблюдения китайских высотных аэростатов, вызвавших международный инцидент в начале этого года.

Запрещенное использование

Но амбиции Чудобы в области GEOINT, дополненные искусственным интеллектом, осложняются тем, что создатель данной технологии, похоже, уже запретил именно такое применение: Согласно странице «Политики использования» OpenAI, приложения для «военных и боевых действий» и «принятия правительственных решений с высоким риском» прямо запрещены. «Если мы обнаружим, что ваш продукт или его использование не соответствует этим правилам, мы можем попросить вас внести необходимые изменения», — говорится в правилах. «Повторные или серьезные нарушения могут привести к дальнейшим действиям, включая приостановку или прекращение действия вашей учетной записи».

По отраслевым стандартам, это удивительно сильный, четкий документ, который, похоже, отгораживается от бездонной ямы оборонных денег, доступных менее щепетильным подрядчикам, и, похоже, является довольно простым и сухим запретом против именно того, что Чудоба представляет себе для разведывательного сообщества. Трудно представить, как агентство, которое следит за ракетным потенциалом Северной Кореи и служило «молчаливым партнером» во вторжении в Ирак, по мнению Министерства обороны, не является определением высокорискованного принятия военных решений.

Хотя NGA и другие разведывательные агентства, стремящиеся присоединиться к безумию ИИ, могут в конечном итоге заключить контракты с другими фирмами, на данный момент мало кто из конкурентов OpenAI обладает ресурсами, необходимыми для создания чего-то подобного GPT-4, большой языковой модели, лежащей в основе ChatGPT. То, что Чудоба назвал ChatGPT, поднимает жизненно важный вопрос: Возьмет ли компания деньги? Каким бы четким ни казался запрет OpenAI на использование ChatGPT для сбора данных о внешней разведке, компания отказывается это утверждать. Генеральный директор OpenAI Сэм Альтман направил к пресс-секретарю компании Алексу Беку, который не стал комментировать высказывания Чудобы или отвечать на вопросы. На вопрос о том, как OpenAI будет применять свою политику использования в данном случае, Бек ответил ссылкой на саму политику и отказался от дальнейших комментариев.

«Я думаю, что их нежелание даже вступить в дискуссию по этому вопросу должно вызывать глубокое беспокойство», — сказал Майерс из института AI Now. «Я думаю, что это противоречит всему тому, что они говорили общественности о том, как они обеспокоены этими рисками, как будто они действительно действуют в интересах общества. Если вникнуть в детали, если они не хотят быть откровенными в отношении такого рода потенциального вреда, то это показывает хрупкость такой позиции».

Связи с общественностью

Даже самые четкие этические принципы технологического сектора регулярно оказываются упражнением в пиаре и не более того: Twitter одновременно запрещает использовать свою платформу для слежки и в то же время напрямую поддерживает ее, а Google продает услуги искусственного интеллекта Министерству обороны Израиля, в то время как его официальные «принципы искусственного интеллекта» запрещают приложения, «которые наносят или могут нанести общий вред» и «цели которых противоречат широко принятым принципам международного права и прав человека». В политике публичной этики Microsoft отмечается «приверженность смягчению последствий изменения климата», в то время как компания помогает Exxon Mobil анализировать данные нефтяных месторождений, и точно так же декларируется «приверженность уязвимым группам», в то время как американская полиция продает инструменты наблюдения.

От этой проблемы OpenAI не сможет уклоняться вечно: Пентагон, перегруженный данными, все больше увлекается машинным обучением, поэтому ChatGPT и ему подобные явно желательны. За день до того, как Чудоба заговорил об ИИ в Арлингтоне, Кимберли Саблон, главный директор по доверенному ИИ и автономии при заместителе министра обороны по исследованиям и инженерным вопросам, сказала на конференции на Гавайях: «Есть много хорошего в том, как мы можем использовать большие языковые модели, такие как (ChatGPT), чтобы нарушить критически важные функции в министерстве», — сообщил журнал National Defense в прошлом месяце. В феврале директор ЦРУ по искусственному интеллекту Лакшми Раман сказал в интервью офицерскому клубу в Потомаке: «Честно говоря, мы видели, какой ажиотаж в общественном пространстве вызвал ChatGPT. Это определенно переломный момент в этой технологии, и нам определенно нужно изучать способы использования новых и перспективных технологий».

Стивен Афтергуд, исследователь правительственной тайны и давний наблюдатель разведывательного сообщества в Федерации американских ученых, объяснил, почему план Чудобы имеет смысл для агентства. «NGA ежедневно завалено геопространственной информацией по всему миру, с которой не может справиться армия человеческих аналитиков», — сказал он. «В той степени, в которой процесс первоначальной оценки данных может быть автоматизирован или поручен квазиинтеллектуальным машинам, люди могут быть освобождены для решения вопросов особой срочности». Но здесь предполагается, что ИИ может сделать нечто большее и что он может выявить проблемы, которые человеческие аналитики могли бы пропустить». Афтергуд сказал, что он сомневается, что интерес к ChatGPT как-то связан с его весьма популярными способностями чатбота, но с лежащим в основе модели машинного обучения потенциалом просеивать огромные массивы данных и делать выводы. «Будет интересно и немного страшно посмотреть, что из этого получится», — добавил он.

Одна из причин, почему это пугает, заключается в том, что, хотя такие инструменты, как ChatGPT, могут почти мгновенно имитировать письмо человека, технология, лежащая в их основе, заслужила репутацию спотыкающейся на основных фактах и генерирующей правдоподобные, но совершенно фальшивые ответы. Эта склонность уверенно и убедительно выдавать бессмыслицу — феномен чатботов, известный как «галлюцинации», — может стать проблемой для непримиримых аналитиков разведки. Одно дело, когда ChatGPT рассказывает о лучших местах для обеда в Цинциннати, и совсем другое — создавать осмысленные схемы из спутниковых снимков Ирана. Кроме того, инструменты генерации текста, такие как ChatGPT, обычно не способны объяснить, как и почему они создали свои результаты; даже самый невежественный человек-аналитик может попытаться объяснить, как он пришел к своему выводу.

Люси Сучман, почетный профессор антропологии и военизированных технологий в Ланкастерском университете, рассказала, что снабжение системы, подобной ChatGPT, новой информацией о мире представляет собой еще одно препятствие. «Нынешние (большие языковые модели), такие как те, которые используются в ChatGPT, являются фактически закрытыми мирами уже оцифрованных данных; как известно, данные, собранные для ChatGPT, заканчиваются в 2021 году», — пояснил Сучман. «И мы знаем, что быстрое переобучение моделей является нерешенной проблемой. Поэтому вопрос о том, как LLM будут учитывать постоянно обновляемые данные реального времени, особенно в быстро меняющихся и всегда хаотичных условиях военных действий, кажется очень важным. И это еще не говоря обо всех проблемах стереотипирования, профилирования и необоснованного нацеливания, которые стоят перед современной военной разведкой, основанной на данных».

Нежелание OpenAI исключить NGA в качестве будущего клиента имеет, по крайней мере, хороший деловой смысл. Правительственная работа, особенно в сфере национальной безопасности, является чрезвычайно прибыльной для технологических компаний: В 2020 году Amazon Web Services, Google, Microsoft, IBM и Oracle заключили контракт с ЦРУ, стоимость которого, как сообщается, составит десятки миллиардов долларов за весь срок его действия. Microsoft, которая инвестировала в OpenAI 13 миллиардов долларов и быстро интегрирует возможности машинного обучения этой небольшой компании в свои собственные продукты, сама заработала десятки миллиардов на оборонных и разведывательных работах. Компания Microsoft отказалась от комментариев.

Но OpenAI знает, что эта работа вызывает много споров, как среди сотрудников, так и среди широкой общественности. В настоящее время OpenAI пользуется всемирной репутацией благодаря своим ослепительным инструментам и игрушкам машинного обучения — блестящий общественный имидж, который может быть быстро испорчен партнерством с Пентагоном. «Праведные презентации OpenAI о себе соответствуют недавним волнам «отмывания» этики в отношении ИИ», — отметил Сучман. «Руководства по этике устанавливают то, что мои британские друзья называют «заложниками судьбы», или то, что вы говорите, и что может вернуться и укусить вас». Сучман добавил: «Их неспособность даже ответить на запросы прессы, подобные вашему, говорит о том, что они плохо подготовлены к тому, чтобы отвечать за свою собственную политику».

Источник: news.com

Подпишитесь на канал 9111.ru в
«Дзен» и
«Телеграм »
Может ли Пентагон использовать CHATGPT в своих целях. OPENAI не отвечает
19 мая: какой сегодня праздник, что за день в истории России, приметы и обычаи в этот день