Неделю назад американские сенаторы провели свой первый секретный брифинг на тему искусственного интеллекта (ИИ), где выразили повышенную озабоченность относительно рисков, связанных с данной технологией. Речь также шла об отсутствии в законодательном поле США четких направлений по регулированию стремительно развивающейся отрасли. Метко высказался по этому поводу сенатор-республиканец от штата Луизиана Джон Нили Кеннеди: «У ИИ есть невероятный потенциал сделать нашу жизнь лучше... Если это не убьет нас первым».

В последние месяцы Конгресс и администрация США всеми способами пытаются лучше понять риски и преимущества ИИ. В то же время чат-боты на основе искусственного интеллекта (ChatGPT от OpenAI и Bard от Google), а также инструменты на базе видео, аудио и изображений, усиливают опасения американских политиков по поводу распространения ложной информации из «галлюцинаций» или массива фейков, которыми чат-боты обмениваются между собой. Обсуждаются и дополнительные риски того, что технологии могут быть использованы в качестве оружия.

В чем, собственно, суть волнений в США, когда речь заходит об ИИ. Дело в том, что у нас опасаются, что иностранные структуры (хороший пример тут – Россия или Китай) будут влиять на нашу государственную систему. Не просто смогут влиять на наши выборы или еще какие-то значительные события, а влиять на наши крупные корпорации, нашу экономическую систему, в целом. Это всех сфер жизни касается – и политики, и экономики. Ведущие компании США, те, кто находится в этом ИИ-мире, поддерживают наше общее опасение. Они говорят, мол, политики абсолютно правы потому, что, в принципе, здесь же не идет речь о правде, а имеет место имитация реальности.

Посредством ИИ мы попадаем как будто бы в видео игру. Это как извращение будущего. Мы попадаем туда, где, например, все может стать фейковым: счета компаний, фотографии людей, данные разных служб и так далее. Поэтому и возникает страх относительно того, что ожидает людей в будущем.

Одно дело, когда что-то создавалось хоть и, скажем так, несколько корявой технологией, где работали реальные люди, можно было что-то реально разоблачить или понять. ИИ же создает мир, где можно будет намного больше, но уже искусственно, влиять на те же СМИ, усиливать пропаганду, корректировать общественное мнение. У нас на разных уровнях этот вопрос обсуждается именно в подобном ключе. Мол, можно будет проникать в то, что секретно; можно будет еще больше производить хакерских атак; еще чаще что-то взламывать или кого-то подчинять. Все может кардинально поменяться. Кардинально.

Популярные статьи сейчас
Штрафы от ТЦК вырастут вдвое: уклонистов изрядно потрясут Масштабное мартовское повышение пенсий: 2300 получат не все Гороскоп на 21 ноября для всех знаков Зодиака: время покончить с хламом в голове и делах пришло Плюс 2361 грн на карту ежемесячно: кто из пенсионеров в 2025 году получит солидный бонус
Показать еще

Поэтому, наши конгрессмены и сенаторы говорят, что, во-первых, необходимы законы, которые бы как-то это все регламентировали. Во-вторых, нужна прозрачность в процессе деятельности ИИ-мира.

Например, сейчас у меня есть клиент, который хочет сделать личный блог. Я ему посоветовал хороших консультантов, так вот они говорят, что известный ChatGPT уже везде блокируется. Они говорят, что могут разрабатывать идеи, не вопрос, но должны быть живые люди, которые будут в итоге все переписывать. Потому, что разные системы уже подхватывают эти базовые разработки, как тот же ChatGPT, и блокируют их. Поэтому, человек сможет публиковать что-то у себя, например, на сайте, но чтобы это захватывалось Google и показывалось при поиске – тут возникнут проблемы. У другого моего приятеля есть компания, связанная с PR, и они тоже не могут пользоваться продуктами ИИ потому, что они начинают блокироваться везде.

Поэтому, у нас, как правильно отмечают сенаторы США, волнение больше о том, что станет легче обманывать. Все, чего мы боимся или с чем сражаемся, станет мега мощнее и уже крайне тяжело будет это фиксировать. Вопрос опять же об ответственности, как для СМИ. Системы ИИ – это же, по сути, масс-медиа. К примеру, кому-то уже не нужно будет в реальности мотивировать какие-то тупые маргинальные группы, чтобы они кого-то уничтожили, мотивировать всплеск Cancel Culture (культуры отмены) и так далее. Человек уже сможет все это самостоятельно создать. Он уже сам может создать, например, свою армию ботов. Сможет сам создать движение или диаспору. Тоесть, если кто-то захочет, чтобы те же иранцы в LA начали резко ненавидеть какую-то тему, то никого не нужно будет ходить мобилизировать и уговаривать, а стоит лишь создать фейковую группу от якобы какой-то большой иранской общины и все будет быстро и эффективно.

Вот это и вызывает в США страх и волнение. Проблема, как говорят сами политики, в том, что всегда очень тяжело регулировать технологии. ИИ – технологии, которые не имеют барьеров. ИИ может быть везде. Но, наши политики хорошо понимают, что и остановить это уже тоже невозможно. Кто и как сможет остановить ИИ? Никак. То, что сами компании сейчас блокируют публикации, которые генерируются через ChatGPT, так это временное явление. Вот поэтому наши политики обеспокоены и соглашаются с тем, что проблема есть, ее нужно продолжать обсуждать и как-то решать. Что-то нужно сделать, они уверены, иначе эти новые технологии могут уничтожать наши ценности. Технологии будут маскировать правду, будут открывать двери для иностранных соперников, чтобы те влияли не только на нашу политическую жизнь, а и на все наши системы функционирования. На нашу банковскую систему, как пример. Поэтому, сейчас у нас действительно определенная паника касаемо этого вопроса.

Я думаю, что обязательно по этой теме будут какие-то новые законы приниматься, будут новые нормы регистрации каких-то инновационных вещей. И, думаю, что будут также новые наказания для тех, кто захочет воспользоваться системами ИИ неправильно или кому-то во вред.

Системы ИИ сейчас в США – очень важная тема. Мы впереди всех по многим вопросам, поэтому для нас это так и актуально. Сейчас, я бы сказал, мы вошли в технологический кризис и нужно думать, как его минимизировать в пользу здравого смысла.