ПРЕСС-ЦЕНТР

ИИ: развитие на грани фола?

ПРЕСС-ЦЕНТР

ИИ: развитие на грани фола?
12 марта 2026
1064

Еще совсем недавно мы стали пользователями персональных компьютеров. И вот теперь стоим у истоков искусственного интеллекта – знания, которое несопоставимо по своим масштабам и возможностям с более ранними техническими открытиями. ИИ уже сегодня используется в промышленности, управлении бизнесом, финансовой сфере, логистике, медицине и т.д. Довольно часто его способности уже применяются на бытовом уровне. И это – только начало.

Реальность и ожидания

Задумывались ли вы, что на данном этапе искусственный интеллект для человечества – словно маленький ребенок. Мы так же обучаем его, радуемся его первым, неуверенным шагам, указываем ему на ошибки, играем с ним. Однако пока еще не знаем, каким он «вырастет» и оправдает ли наши надежды.

Специалисты в сфере развития искусственного интеллекта говорят: пока что он способен только постигать огромные массивы знаний, накопленных человечеством и на их основе делать те или иные выводы по запросу человека. Так чаще всего называют модели, основанные на искусственных нейросетях. Это ChatGPT от OpenAI, Gemini от Google, Copilot от Microsoft, Grok от X, китайский DeepSeek и т.д. Разработчики технологий стремятся в перспективе создать искусственный суперинтеллект.

Пока что нейросети не могут думать, лгать, учиться в человеческом понимании этого процесса, анализировать свои ошибки. Примечательно, что, как и человеку, ИИ свойственны галлюцинации. Но он ошибается в простых и понятных человеку вещах, создавая такую массу ложного контента в интернете, что это явление уже назвали «искусственно-интеллектными помоями». Поэтому, задав вопрос в поисковике Google, хочется посмотреть нормальный, «человеческий» ответ, проигнорировав вариант ИИ.

Сначала – прибыль, затем – мораль

Не стоит забывать еще об одном – моральном аспекте. Ведущие производители контента ИИ очень внимательно следят за успехами конкурентов, стараясь не пропустить их вперед. Так, OpenAI в декабре прошлого года обеспокоилась ростом чат-бота Gemini от Google. Другой конкурент, xAI, установил, что отсутствие строгих правил вокруг контента «для взрослых» помогло соцсети Х с помощью чат-бота Grok увеличить количество пользователей. Чат-бот по запросу пользователей генерировал около 6700 изображений в час, в том числе «сексуализированного» содержания. На них оказались «раздетыми» не только взрослые, но и дети.

После бури протестов компания Х сделала эту функцию платной, не отказавшись полностью от возможности таким способом и далее увеличивать количество пользователей. А многие жертвы такой «деятельности» испытали шок от нападок пользователей соцсетей, поскольку фото выглядели вполне реалистично. В ответ на такие действия компании многие страны полностью заблокировали чат-бот Grok на своей территории.

В январе получила огласку еще одна показательная история: в центре внимания оказалась компания OpenAI – с должности сняли вице-президента Райан Байермайстер. Она отвечала за безопасность и правила использования ChatGPT. В частности, Райан Байермайстер выступала против запуска режима, который позволит пользователям создавать в ChatGPT эротический контент с помощью ИИ. Такой подход вызвал критику со стороны независимых исследователей компании, а также части ее представителей. Райан
Байермайстер предупредила, что механизмы OpenAI по блокировке контента с эксплуатацией детей недостаточно эффективны и после запуска этой функции у них появится
доступ к контенту «для взрослых». Однако похоже, что моральный аспект мало беспокоит тех, кто сделал основную ставку на гонку в стремлении не отстать от конкурентов и получить сверхприбыли.

Вопросы без ответов

С одной стороны, развитие ИИ и возможное создание суперинтеллекта обещает дать человечеству такие возможности, которые сейчас кажутся фантастичными. Но насколько мы будем готовы их принять? Ведь главное, чтобы он не нанес вред человеку и не вышел из-под контроля. К тому же остается еще много вопросов, в том числе и юридических, количество которых обязательно увеличится по мере развития ИИ. Например, представьте себе робота, у которого в голове – суперкомпьютер, он способен принимать самостоятельные решения. А если в его «сознании» произойдет сбой, он нанесет вред? Пока что за него несет ответственность владелец, эта норма юридически закреплена в большинстве стран мира. Тем не менее, в 2017 году в Японии принят закон, признающий роботов «электронными лицами», имеющими определенные права и обязанности». Первый шаг сделан?

Человеку присущи два, на первый взгляд, взаимоисключающих качества: осторожность, граничащая с боязнью оступиться и риск на грани фола в желании узнать, что же там, за горизонтом возможностей. Что возобладает – инстинкт самосохранения или желание получить сверхприбыли? Об этом мы не узнаем до тех пор, пока нас не поставят перед фактом, поскольку подобные разработки компании ведут в режиме особой секретности.