Почему Сэм Альтман не спит? Генеральный директор OpenAI отвечает на спорные вопросы в обширном интервью.

В обширном интервью на прошлой неделе генеральный директор OpenAI Сэм Альтман затронул множество моральных и этических вопросов, касающихся его компании и популярной модели искусственного интеллекта ChatGPT.
«Послушайте, я плохо сплю по ночам. Есть много вещей, которые меня сильно тревожат, но, пожалуй, дело не только в том, что каждый день сотни миллионов людей общаются с нашей моделью», — сказал Альтман бывшему ведущему Fox News Такеру Карлсону в почти часовом интервью.
«На самом деле я не беспокоюсь о том, что мы примем неправильные решения в важных моральных вопросах», — сказал Альтман, хотя и признал, что «возможно, мы и здесь ошибемся».
По его словам, больше всего он теряет сон из-за «очень маленьких решений» относительно поведения модели, которые в конечном итоге могут иметь большие последствия.
Эти решения, как правило, основаны на этических принципах, лежащих в основе ChatGPT, и на какие вопросы чат-бот отвечает, а на какие нет. Вот краткое описание некоторых из этих моральных и этических дилемм, которые, похоже, не дают Альтману спать по ночам.
По словам Альтмана, самой сложной проблемой, с которой компания сталкивается в последнее время, является подход ChatGPT к самоубийству, в свете иска семьи, которая обвинила чат-бота в самоубийстве своего сына-подростка .
Генеральный директор сказал, что из тысяч людей, которые совершают самоубийства каждую неделю, многие из них могли быть пообщаемся с ChatGPT в преддверии.
«Они, вероятно, говорили о [самоубийстве], и мы, вероятно, не спасли им жизни», — откровенно сказал Альтман. «Возможно, мы могли бы сказать что-то получше. Возможно, мы могли бы действовать более активно. Возможно, мы могли бы дать немного более точный совет: эй, вам нужна эта помощь».
В прошлом месяце родители Адама Рейна подали иск против OpenAI об ответственности за качество продукции и неправомерном причинении смерти после того, как их сын покончил жизнь самоубийством в возрасте 16 лет. В иске семья заявила, что «ChatGPT активно помогал Адаму изучать способы самоубийства».
Вскоре после этого в сообщении в блоге под названием «Помощь людям, когда они в этом больше всего нуждаются» OpenAI подробно описала планы по устранению недостатков ChatGPT при работе с «деликатными ситуациями» и заявила, что продолжит совершенствовать свою технологию для защиты людей, которые находятся в наиболее уязвимой ситуации.
Еще одной важной темой, затронутой в ходе интервью, стали этические и моральные принципы, лежащие в основе деятельности ChatGPT и его руководителей.
Описывая базовую модель ChatGPT как обученную на коллективном опыте, знаниях и уроках человечества, Альтман отметил, что OpenAI должен затем выровнять определенные модели поведения чат-бота и решить, на какие вопросы он не будет отвечать.
«Это действительно сложная проблема. У нас сейчас много пользователей, и у них очень разные жизненные взгляды... Но в целом я был приятно удивлён способностью модели учиться и применять моральные принципы».
На вопрос о том, как определяются определенные характеристики моделей, Альтман ответил, что компания проконсультировалась «с сотнями философов-моралистов и людей, которые размышляли об этике технологий и систем».
В качестве примера он привел спецификацию модели, согласно которой ChatGPT будет избегать ответов на вопросы о том, как создать биологическое оружие, если такие вопросы будут заданы пользователями.
«Существуют явные примеры того, как интересы общества вступают в серьёзное противоречие со свободой пользователя», — сказал Альтман, добавив, однако, что компания «не всё сделает правильно и нуждается в участии всего мира» для принятия таких решений.
Еще одной крупной темой для обсуждения стала концепция конфиденциальности пользователей чат-ботов. Карлсон утверждал, что генеративный ИИ может быть использован для «тоталитарного контроля».
В ответ Альтман заявил, что одним из элементов политики, которую он продвигает в Вашингтоне, является «привилегия ИИ», которая подразумевает, что все, что пользователь говорит чат-боту, должно быть полностью конфиденциальным.
«Когда вы говорите с врачом о своём здоровье или с юристом о своих юридических проблемах, правительство не может получить эту информацию, верно?... Я думаю, у нас должна быть такая же концепция для ИИ».
По словам Альтмана, это позволит пользователям консультироваться с ИИ-чатботами по вопросам, связанным с их историей болезни и юридическими проблемами, среди прочего. В настоящее время власти США могут потребовать от компании предоставления данных пользователей, добавил он.
«Я настроен оптимистично и считаю, что нам удастся заставить правительство понять важность этого», — сказал он.
На вопрос Карлсона, будут ли военные использовать ChatGPT для причинения вреда людям, Альтман не дал прямого ответа.
«Я не знаю, как военные сегодня используют ChatGPT... но подозреваю, что многие военные обращаются к ChatGPT за советом».
Позже он добавил, что не уверен, «как именно к этому относиться».
OpenAI была одной из компаний в области искусственного интеллекта, получивших контракт на 200 миллионов долларов от Министерства обороны США на внедрение генеративного ИИ в интересах американских военных. Компания сообщила в блоге , что предоставит правительству США доступ к специализированным моделям ИИ для обеспечения национальной безопасности, поддержки и информации о планах развития продуктов.
В своем интервью Карлсон предсказал, что, если следовать текущей траектории развития, генеративный ИИ и, как следствие, Сэм Альтман, смогут накопить больше власти, чем любой другой человек, и даже назвал ChatGPT «религией».
В ответ Альтман заявил, что раньше его сильно беспокоила концентрация власти, которая могла возникнуть в результате генеративного ИИ, но теперь он считает, что ИИ приведет к «значительному повышению уровня» всех людей.
«Сейчас множество людей используют ChatGPT и другие чат-боты, и все они стали более эффективными. Они все способны на большее. Они все могут достичь большего, начать новый бизнес, получить новые знания, и это очень здорово».
Однако генеральный директор заявил, что, по его мнению, ИИ приведет к ликвидации многих существующих сегодня рабочих мест, особенно в краткосрочной перспективе.
CNBC