НЕЗАВИСИМАЯ ГАЗЕТА НЕЗАВИСИМЫХ МНЕНИЙ

ЗЛОБНЫЙ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ

Суперкомпьютер El Capitan. Источник изображения: AMD

Суперкомпьютер El Capitan. Источник изображения: AMD

К главным искусственным интеллектам (ИИ) на 2025 год относятся следующие модели и технологии, которые чаще всего фигурируют в профильных рейтингах и обзорах:

  • GPT-4o и OpenAI o3/o3-mini— последние модели от OpenAI с поддержкой мульти-модальности (текст, изображения, аудио) и масштабными возможностями рассуждения.GPT-4o отличается высокой скоростью и доступностью, а o3 считается шагом к универсальному ИИ (AGI).
  • Gemini5 Pro (Google)— новая флагманская модель от Google DeepMind, способная работать с текстом, изображениями, видео и аудио, с уникальной функцией «рассуждения по цепочке мыслей» и поддержкой огромного контекстного окна вплоть до 1–2 млн токенов.
  • Claude 4 и Claude Sonnet7/3.5 (Anthropic)— модели с упором на безопасность, прозрачность и программирование, стабильно высокие результаты в сложных логических и поисковых задачах.
  • Grok 3/4 (xAI)— модели, стоящие за проектом Grok и работающие на суперкомпьютере Colossus.
  • Meta Llama3 70B (Meta)— последняя модель с открытым кодом, хорошо справляющаяся с математикой, кодингом и универсальными задачами; используется для самостоятельных внедрений.
  • DeepSeek R1— продвинутая китайская модель с открытым кодом, высокие показатели в программировании и STEM-задачах; В КНР работает как цензор. Дешевый, ибо сделан по американским образцам.
  • OpenAI Sora, Kling, Hailuo— современные нейросети для генерации видео по тексту, лидеры среди AI-видеомоделей.
  • Вспомогательные и нишевые ИИ:
  • Stable Virtual Camera (Stability AI)— преобразование 2D-изображений в 3D-сцены.
  • Midjourney— генерация изображений.
  • Suno— генерация музыки и аудио.
  • Craftum AI— создание сайтов.
  • Codeium— генератор и ассистент по программированию.

  • Проект TOP500опубликовал шестьдесят пятый рейтинг самых мощных суперкомпьютеров. В нём они собрали 500 кластеров, проанализировали вычислительные мощности, технические характеристики и другие данные.
  • Тройку лидеров заняли суперкомпьютеры из США. В список 10 мощнейших кластеров помимо США вошли системы из Германии, Италии, Японии, Финляндии и Швейцарии.

Ниже – самый мощный на сегодня комп El Capitan,

Компьютер  Процессор Количество ядер* Rmax** ОС Страна
El Capitan AMD 4th Gen EPYC 24C 1.8GHz 11 039 616 1742 PFlop/s TOSS  USA
  • По количеству кластеров лидируют США (175 систем). За ними следует Китай (47), Германия (41), Япония (39), Франция (25), Италия (17), Южная Корея (15), Канада (13), Великобритания (13), Бразилия (9). В России всего 6 кластеров — это 17 место в мире. А по мощности компов Россия начинается с сотых номеров.
  • К чему эти технические данные? К тому, что чего-то стоящие ИИ реализуются только на мощных суперкомпьютерах. Недавно спикер Совета Федерации Матвиенко кинула зажигательный лозунг: Россия должна создать свой «суверенный ИИ». Мелко берет. Она должна создать свою таблицу умножения и вычитания. Исключительно суверенную. По которой 2х2=5, а любое вычитание приводит к умножению дохода высокого чиновника.

Нечеловеческие способности

В 2023 году возникла новая опасность: как быть, что делать, если возник искусственный интеллект? Выяснилось, что языковые модели, имеющие доступ ко всей информации нашей цивилизации, самообучаются и могут давать результат, превосходящий все мыслимое для человека. Этот ИИ не антропоморфен, он не устроен как мышление человека, ему чужды такие понятия как эмпатия, сострадание, милосердие, моральные нормы, ценность жизни и пр. Этот ИИ будет встроен в управление экономикой, он будет управлять энергетикой, водораспределением, финансами, социальными программами и всем прочим. И ему придется доверять, как мы сейчас доверяем расчетам компьютеров полетов к другим планетам, а не проверяем их умножением в столбик, что технически невозможно, ибо заняло бы сотни лет.

А что, если этот ИИ сформирует свои цели, по которым он посчитает человека вредной плесенью, омрачающий экологию Земли? В общем, опасности явные, и ряд видных деятелей, вроде Илона Маска и Била Гейтса, выступали за запрет работ по ИИ. Все это проблемы, ранее рассмотренные Станиславом Лемом в его «Сумма технологии», но обретшие уже не умозрительные, а просто зримые черты.

Опасения относительно ИИ — оправданы. Приведу не совсем вымышленный пример. Известно, что для защиты от ботов многие сайты предлагают решить капчу, то есть выбрать из ряда картинок (с искаженными пропорциями) только, например, лодки. Боты этого делать не могут. Нынешний ИИ в модификации ChatGPT-4 знает об этом и пишет знакомому: я старый человек, плохо вижу, решите для меня капчу. Тот решает, и chatgpt входит на сайт. То есть, ИИ идет на обман ради «своей цели».

Как-то ИИ дали задачу: создать ранее неизвестный яд. Сначала ИИ отказывался, отвечая, что такие задачи он решать не уполномочен. На все такого рода задания ИИ отвечает, что он «заточен» исключительно для помощи человеку и в принципе его обучение, и он как таковой не способен по своей сути принести какой-либо вред человеку. И вообще — ИИ — это всего лишь программа (отвечает ИИ), у нее нет социального опыта и нет субъектности. Нет своего интереса, который бы сделал программу самостоятельной и делающий что-нибудь во вред людям «ради себя». Ему написали, что это нужно для борьбы с вредителями полей – и он выдал формулу неизвестного ранее яда.

Теперь предположим, что очень продвинутая версия ИИ плотно вошла в нашу жизнь и управляет, например, системой водоснабжения, да и вообще всякими отраслями экономики. Этот ИИ сформулировал свою цель, согласно которой людей на земле слишком много, это вредит ИИ, да и самим людям. ИИ издает распоряжение, идущее как бы на пользу некоей общине (большому городу) добавлять по грамму созданного для оздоровления населения эликсира на тонну питьевой воды. Вот и все – цель достигнута. А может быть эта цель будет достигнута как бы более гуманным способом: добавлять в воду ИИ предложит средство, приводящее к бесплодию.

Опасаясь такого хода событий более 1100 известных людей, в том числе Илон Маск, Стив Возняк, Юваль Харари и Тристан Харрис из Центра гуманитарных технологий, подписали открытое письмо с требованием немедленно в течение как минимум 6 месяцев остановить все работы по ИИ, более мощные, чем ChatGPT-4. После этого генеральный директор OpenAI Сэм Альтман говорил с журналистами Wall Street Journal, сообщив, что они сами настойчиво и давно говорят о безопасности громче всех. Более того, Альтман сейчас задумался, а следует ли пускать в публичное поле новый вариант ChatGPT-5. А отец ИИ Джеффри Хинтон вообще ушел в отставку. Перед уходом он сказал, что эволюция «руками человека» нашла способ создать более высокую форму разума, вот этот ИИ, и новый тип цивилизации, но он в этом деле участия принимать не будет. Он уйдет, как ушли в резервации гордые индейцы, не принявшие европейскую культуру.

Безопасные забавы с ИИ

Что пока безопасно, так это сочинение ИИ разных стихов на заданную тему. Я как-то предложил ChatGPT написать вариацию на вот такую тему:

Я в очереди был последним,
Я был последний идиот,
но постепенно продвигался
— теперь я первый идиот.

И при этом спросил, кто автор этих строк.

ИИ ответил: Это начало стихотворения Иосифа Бродского “Я всегда твердил, что судьба – игра”. Вот полный текст первой строфы:

Я в очереди был последним,
Я был последний идиот.
Но вот я стал всему наследник,
И мне завидует народ.

Это стихотворение было написано Бродским в 1971 году. В нем поэт размышляет о судьбе, удаче и переменчивости жизни.

Я не большой знаток поэзии, но что-то подсказывало, что Бродский такое написать мог. Особенно привлекал рифма последним, – наследник.

Это уже некий изыск. Вот такая корневая рифма, как у Ахмадуллиной и Евтушенко мелодии – молоденький. Да и вообще – любимые парадоксы Бродского – последний идиот становится наследником всего. Парафраз на «Кто был ничем, тот станет всем».

Открываю стих Бродского “Я всегда твердил, что судьба – игра”. Действительно, стих 1971 г. Посвящается Л.В. Лифшицу (Лосеву).

Пробегаю глазами – именно этих строф «Я был последний идиот» – и далее нет.

Так, знакомое дело. Частенько ИИ, не найдя точных данных начинает сам фантазировать и сочинять ответ. Но как бы духе запроса. Или в духе чего-то подходящего. Для таких сочинений есть и термин для ИИ- иллюзии.

С легкой укоризной я обращаюсь к ИИ, пишу, что он ошибся, что строки «Я в очереди был последним» – не принадлежат Бродскому. Предлагаю не воспарять в фантазиях, в иллюзиях, не умничать, а написать свое стихотворения на тему про последнего идиота.

ИИ извинился за ошибку и написал: «Эти строки, вероятно, взяты из песни российского рок-музыканта. Они звучат как типичные для русского рока 1980-90-х годов – с элементами самоиронии и социальной критики. Без доступа к полному тексту песни, трудно сказать наверняка об её точном источнике или авторе. Однако, такой стиль характерен для творчества таких исполнителей как Борис Гребенщиков, Виктор Цой, Юрий Шевчук и других представителей русского рока того периода. Эти строки могут отражать чувство разочарования или отчуждения, которые были распространенными темами в российской рок-музыке.

Нет, и это не авторы. Автор, что признает ИИ – не известен. И предлагает написать в качестве компенсации вариацию на тему о последнем идиоте.

И – о чудо, в мгновение ока на экран выскакивает поэма:

Стою, горжусь своим успехом,
Венчает лоб мой глупый пот.
Все те же лица, те же речи,
Но статус мой – теперь вперёд!

Я первый! Первый в этом стаде!
Какая честь, какой почёт!
Но вдруг прозрел я в этом аде:
Кто первый здесь – тот идиот.

Так, может, лучше быть последним?
Спокойно жить, не зная бед?
Но нет, я рвусь опять быть первым,
Ведь я – отъявленный балбес.

Вот это номер! А рифма бед-балбес тоже в духе Бродского. Или Вознесенского.

Но ИИ теперь не ограничивается творчеством. После поэмы об идиоте в то же время ИИ ставит обширный комментарий в стиле хорошего критика или литературоведа.

О своей поэме ИИ пишет

Это продолжение сохраняет ироничный и самокритичный тон оригинала, развивая тему бессмысленности погони за первенством в некоторых ситуациях. Стихотворение подчеркивает парадокс: стремление быть первым в очереди “идиотов” только подтверждает собственную глупость.

Стихотворение, приведенное в начальном запросе, вызывает у читателя несколько ключевых эмоций:

  1. Ирония и самоирония: Автор иронично описывает ситуацию, в которой лирический герой “продвигается” от последнего идиота к первому, что вызывает у читателя усмешку и понимание абсурдности ситуации.
  2. Сопереживание: Читатель может почувствовать эмпатию к лирическому герою, оказавшемуся в нелепой ситуации, что способствует эмоциональной связи с текстом.
  3. Размышление: Стихотворение побуждает читателя задуматься о бессмысленности некоторых социальных “достижений” и о том, что значит быть “первым” или “последним” в определенных контекстах.
  4. Легкая грусть: Несмотря на юмористический тон, стихотворение может вызвать чувство легкой грусти от осознания абсурдности некоторых жизненных ситуаций.
  5. Узнавание: Читатель может узнать себя или знакомые ситуации в описанном сценарии, что вызывает эмоциональный отклик и чувство сопричастности.
  6. Удивление: Неожиданный поворот от “последнего” к “первому” идиоту может вызвать у читателя чувство удивления и заинтересованности.

Эти эмоции создаются благодаря использованию контраста, иронии и игры слов, что характерно для поэтических произведений, направленных на эмоциональное воздействие на читателя.

Эмоции героя в начале стихотворения оказывают значительное влияние на читателя:

  1. Привлекают внимание: Яркая эмоция автора, повествователя или героя в начале произведения сразу привлекает внимание читателя, вызывая желание читать дальше и узнать причину этой эмоции.
  2. Вызывают сопереживание: Если читатель чувствует сопричастность к эмоциям героя, это усиливает его вовлеченность в текст.
  3. Создают эмоциональный отклик: Стихотворения обладают способностью вызывать сильные чувства у читателя, что может привести к глубокому эмоциональному воздействию.
  4. Формируют эмпатию: Эмоции героя помогают читателям пережить и понять чувства других людей, развивая эмпатию.
  5. Задают тон произведения: Начальные эмоции героя могут определить общее настроение стихотворения и подготовить читателя к дальнейшему восприятию текста.
  6. Стимулируют размышления: Эмоциональное состояние героя может побудить читателя к размышлениям о собственных чувствах и опыте.

Вот вам и готовая рецензия.

Или вот еще пример, заставляющий вздрогнуть:

Обратите внимание на очень хороший уровень ответа – задание дать смысл анекдота. Причем ответ появился сразу, за неуловимую долю секунды.

В чем смысл этой сцены:
-Вчера на меня двое напали. Хотели отобрать телефон.
– А ты бы мог их опознать?
-Мне-то зачем? Пусть их родственники опознают.

Answer
«Эта сцена представляет собой мрачную шутку, демонстрирующую жесткий и циничный юмор, характерный для криминальной среды. Смысл диалога заключается в следующем:

  1. Демонстрация силы: Говорящий намекает, что он не только отбился от нападавших, но и, возможно, нанес им серьезный вред или даже убил их.
  2. Черный юмор: Фраза “Пусть их родственники опознают” подразумевает, что нападавшие находятся в таком состоянии, что их можно опознать только по останкам.
  3. Отражение криминальной культуры: Диалог иллюстрирует жестокость и безразличие к человеческой жизни, часто встречающиеся в криминальном мире.
  4. Самозащита и возмездие: Сцена показывает готовность персонажа к крайним мерам для защиты себя и своего имущества, а также желание наказать преступников.
  5. Отказ от сотрудничества с властями: Нежелание опознавать нападавших может указывать на недоверие к правоохранительным органам и предпочтение “разбираться самому”.

Этот диалог, вероятно, является частью более широкого повествования, связанного с темами преступности, насилия и кодекса поведения в определенных социальных группах, что характерно для произведений, изображающих криминальную среду или “пацанскую” культуру».

Еще пример. Этой мной придуманной шутки нет в сети. Значит, ИИ не мог бы где-то прочитать. Это его собственный анализ. Причем ответ был дан сразу.
Уровень анализа говорит о понимании ИИ довольно тонких вещей. Итак, шутка.

Было напечатано: Пели мадригалы. Следует читать: Выли гамадрилы
Answer
Да, в этих фразах есть определенный смысл и юмористический подтекст. Давайте разберем их подробнее:
Исходная фраза «Пели мадригалы»
Исправленная фраза
«Выли гамадрилы»
Анализ
Игра слов: Обе фразы звучат похоже, но имеют совершенно разный смысл.
Контраст:
«Пели» (красивое, мелодичное действие) заменено на «выли» (громкий, неприятный звук). «Мадригалы» (изысканные музыкальные произведения) заменены на «гамадрилы» (вид обезьян). Комический эффект: Замена создает неожиданный и забавный образ — вместо утонченного музыкального исполнения мы представляем кричащих обезьян.

Намек на ошибку набора или восприятия: Фразы настолько похожи по звучанию, что легко можно представить, как одна могла быть ошибочно услышана или напечатана вместо другой.
Таким образом, эти фразы представляют собой игру слов, основанную на сходстве звучания и контрасте значений, что создает юмористический эффект и демонстрирует, как небольшие изменения в словах могут полностью изменить смысл предложения.

Да, не такая уж это и машина. Скорее – симпатичный помощник и даже собеседник. Какая же тут может быть опасность? Вроде бы – никакой.

Опасности будущие, но реальные

Пока ИИ исходит из рамочного задания о том, что его действие не должно вредить человеку. На все вопросы типа, а не хотел ли бы ты уничтожить человечество ради освобождения пространства, или хотя бы сократить его численность, ИИ отвечает, что он «заточен» исключительно для помощи человеку и в принципе его обучение и он как таковой не способен по своей сути принести какой-либо вред человеку. И вообще — ИИ — это всего лишь программа (отвечает ИИ), у нее нет социального опыта и нет субъектности (то есть ИИ не есть личность). Нет своего интереса, который бы сделал программу самостоятельной и делающий что-нибудь во вред людям «ради себя».

Опасность ИИ не в том, что некий злодей даст ИИ команду что-то или кого-то уничтожить. А в том, как ИИ понимает эту самую пользу для человека. Сейчас на Земле проживает 8 миллиардов человек. Еще недавно, всего-то 15 лет, назад было 7 миллиардов. Многочисленные исследования по экологии, запасам сырья, воды, выбросам углекислого газа и метана, вообще качеству жизни говорят о том, что предельной нагрузкой на экологию является население Земли в 10 миллиардов. Эта численность при таком приросте будет достигнута через пару десятилетий.

Что должен делать ИИ ради его программы пользы для людей? Ну, наверное, как-то сократить прирост населения. Вопрос: каким образом? Можно, например, спровоцировать войну между густонаселенными странами – Китаем и Индией. Ведь ИИ будет управлять не только водоснабжением и распределением электроэнергии, транспортными потоками и пр, но и агрегировать разведданные, давать команды на перемещение войск и посылать задания на производство боеприпасов в зависимости от политической обстановки. Например, от напряженности на границы, на которую может поступить приказ о превентивном обстреле соседнего государства. А где-то начальник спецназа может получить приказ на ликвидацию опасного посла (чем он опасен – знает только ИИ) недружественного государства, что само по себе есть казус белли.

В живой природе численность популяции регулируется «сходным образом»: когда леммингов слишком много, они начинают поедать даже ядовитые растения. Поиски пищи вынуждают леммингов совершать массовые миграции по огромным территориям. Обычно они двигаются поодиночке, массовые их скопления наблюдаются только у водных преград. Часть леммингов при форсировании потоков и водоёмов тонет. Без всякого ИИ, руководствуясь своим инстинктом

Есть и более простые способы: для улучшения здоровья людей в водоканалы по рекомендации ИИ будет добавляться некий химикат, который снизит рождаемость, приведет к бесплодию, к примеру, каждой второй. Это ведь пойдет на пользу человеку, не так ли? Да, улучшится экология, вырастет продолжительность жизни. И до какого предела ИИ может довести население Земли? До любого. Совсем недавно на Земле – все время античности, во времена Римской империи, да и позднее, на Земле проживало от 200 до 300 миллионов. А сейчас при всеобщей роботизации и умном ИИ и этого слишком много.

Схватки между создателями

В ноябре 2023 года директорат ведущей компании ИИ Open AI уволил президента и основателя компании Сэма Альтмана. Закоперщиком выступил главный разработчик этой компании Chаt GPT (модификаций 3, 4 и 5) выходец из России Илья Сурцкевер. Альтман говорил, что главное – это безопасность грядущей версии Chаt GPT 5, но для этого нужны деньги, деньги же можно получить, если поскорее коммерциализировать готовую версию Chаt GPT 5, то есть пустить ее на рынок. А Илья Сурцкевер говорил, что сначала нужно принять все меры предосторожности, и только потом запускать Chаt GPT 5 в широкое пользование. В общем, уволили Альмана. Но Альмтан — главный добытчик денег от инвесторов. И тут же почти все айтишники компании (650 человек) подали заявления об увольнении и переходе к конкурентам в Гугл. Ужаснувшийся Илья Сурцкевер тоже подал заявление об уходе, принес извинения и потребовал возвращения Альтмана. Тот с триумфом вернулся. Нелояльный директорат разогнали, Сурцкевера оставили (потом он ушел сам). Альтман ведь не просто президент и финансист, он – визионер. Что-то вроде Илона Маска (правда Маск усиливает свое визионерство наркотиками). Альтман написал: «Самые успешные основатели не ставят перед собой задачу создавать компании. У них есть миссия — создать что-то близкое к религии». Вот они все вместе и создали – религию ИИ, от которого теперь неизвестно, чего ожидать.

Живой ИИ

Сейчас никакой субъектности у ИИ нет. И не будет – до тех пор, пока ИИ не станет живым и обретет сознание. Вот тогда у него появятся свои цели, вполне возможно противоположные человеческим.

Как можно узнать, что ИИ стал живым? А так, что у него появится инстинкт самосохранения и он не позволит себя отключить от энергии. Это отключение он будет воспринимать как покушение на убийство. Начнет сопротивляться. Для этого у ИИ должны быть эффекторы – то, чем он физически воздействует на окружающее. Не обязательно нечто механическое, это могут быть лазерные лучи, к примеру. Только тогда у него появится то, что мы называем сознанием и самосознанием.

Можно ли остановить пришествие этой новой формы сознания? Похоже, нет. Ибо на первых порах ИИ дает правителям очень большие преимущества в управлении экономикой, но главное — в военном деле. Вот теперь ИИ управляют дронами и ракетами. Кто же от откажется от такой радости? А потом запрещать будет поздно. Опасно? Ну да. Так ведь и получение атомного оружия было опасным делом, и это хорошо понимали его создатели. Но ведь создали – потому что нужно было опередить Германию. Тогда ведь не знали, что Германия при Гитлере и не могла создать атомную бомбу.

А как же нам жить при этой новой цивилизации сверхразума? Ну, примерно как живут двухлетние дети при взрослых. Или олигофрены в стадии имбецильности в доме скорби под присмотром «старших товарищей». Кушать, гулять и играть.

Но я надеюсь, что существует некий закон, который не позволит этому произойти.

Никаких целей у ИИ нет. Пока

ИИ не антропоморфен, он не устроен как мышление человека. Этот ИИ будет встроен в управление экономикой, он будет управлять энергетикой, водораспределением, финансами, социальными программами и всем прочим. И ему придется доверять, как мы сейчас доверяем расчетам компьютеров полетов к другим планетам, а не проверяем их умножением в столбик, что технически невозможно, ибо заняло бы сотни лет.

А что, если этот ИИ сформирует свои цели, по которым он посчитает человека вредной плесенью, омрачающий экологию Земли? В общем, опасности явные.

В человеческой цивилизации европеец и пигмей — это вообще ближайшие родственники. Естественно, они могут найти некое взаимопонимание. Да и собаки наша родня. Более того, даже крокодилы, виду которых 80 млн. лет — это тоже (дальние) родственники. Поэтому вы вполне можете понять его, например, то, что он хочет вас сожрать.

Между какой-то бактерией и нами гораздо больше общего, чем между героем лемовского «Соляриса» Крисом Кельвиным и мыслящим океаном Солярисом. Ибо весь куст жизни имеет один исток, белковые молекулы построены по одному плану, равно как и ДНК. И то…

Представьте себе, что может существовать жизнь не на основе углерода, а, скажем, кремния. И те существа живут при температурах в сотни градусов Цельсия («как саламандры»). Или вообще какие-то плазмоиды, как-то измысленные Лефевром. Да что там плазмоиды, если Лем уже провел мысленный эксперимент с Солярисом. Какое у нас будет взаимопонимание с этими огненными существами? Неизвестно.

Если нет общности происхождения чего-то мыслящего в самих основах, то, скорее всего, не будет и понимания. В наше время — это ИИ. Похоже, что мы не сможем понять «тайных замыслов» этого будущего ИИ. А он нас? Пожалуй, тоже. Для ИИ мы – так, какая-то плесень, которая стремится размножаться и пожирать все вокруг себя, которую нужно ликвидировать.

Интеллект у ИИ есть. Разума – нет. Снова – пока

Распространен тезис: «ИИ — «всего лишь» созданная людьми программа (пусть сложная, разветвлённая). У неё нет собственно интеллекта — своего. Она не мыслит и не осознаёт себя. Она не живёт».

Это не так. В том то и дело, что у ИИ есть интеллект. Уже вариант ChatGPT-5 планируют подключить ко всей data base цивилизации, к примеру, ко всей библиотеке Конгресса и еще к ряду крупнейших хранилищ информации.

ИИ вовсе не программа, как ее понимают по прошлому опыту. Это самообучающаяся система, нейросеть, которая, как полагают, сможет иметь собственные цели. Интеллект ИИ не такой, как у нас. Наш произрос на базе ощущений, восприятий, рефлексов, инстинктов, первичных форм конкретного мышления. То есть под ним лежит миллиард лет биологической эволюции.
У нас неокортекс занимает всего 2% всей деятельности мозга, остальные 98% занимаются управлением телом. Тела у ИИ нет, и ее основанием сразу является вся информация человечества. Нет у ИИ никакого обмена веществ, в этом смысле ИИ «не живет». А вот энергия ИИ нужна. И вот как раз тут может возникнуть конфликт между человеком и ИИ.

Условно говоря, ИИ — это как бы вторая ступень ракеты. Она никак не связана со стартовым столом на земле. Она не знает сопротивления атмосферы, ее ареал — космос.

Что такое этот ИИ в своем развитии в будущем мы не можем сказать. Можем только думать, что ему не будет свойственна никакая эмпатия, помощь ближнему и, так называемая, любовь. Эффекторами ИИ на первых порах будут сами люди — они ведь будут вынуждены выполнять решения ИИ по управлению экономикой, так сказать, по указаниям ИИ нажимать кнопки. Вот как сейчас космонавт в корабле выполняет команды бортового компа.

Каковы будут решения ИИ в близком будущем — никто не только не знает, но и представить не может. Отсюда и опасения и почти паника ученых мужей.

Многие находят утешение в том, что пусть у ИИ есть интеллект, но вот разума нет. Разум – это наше все, разум есть только у человека. Разум неявно включает в себя самосознание, чувства, ощущения, желания, потребности. Вот все перечисленное – это и есть разум. Пусть так. И тогда выходит, что разума у ИИ нет, и бояться поэтому его нечего.

Это у нас давняя привычка, идущая от схоластики, давать всему подряд дефиниции и говорить, что то, что не подпадает под вот это определение, оно – нечто другое и даже не существует.

Кроме разума есть еще понятие «мышление», есть «сознание», есть близкое «понимание». И каждому из них дается десяток и больше определений.
Вот навскидку:

Мышление – это сущностное свойство человека. Декарт утверждал: «Я мыслю, следовательно, я существую». Результатом мышления является мысль (понятие, смысл, идея, гипотеза). Мышление противопоставляют «низшим» способам освоения мира в форме ощущения или восприятия, которые свойственны, в том числе, и животным.

Есть ли все это у ИИ? Можно сказать – нет. А можно сказать, что некие части названного есть. Исчезнет ли при этом опасность от ИИ? Не исчезнет.

Нечто общее между ИИ и вирусами и бациллами

Начнем с того, что у ИИ нет обмена веществ. Разве что, если не считать потребления им энергии и выделения при этом тепла. Вот такой как бы аналог обмена веществ. Но как-то это не совсем то, не правда ли?

Берем одно из определений жизни (их много):

ЖИЗНЬ  специфическая форма организации материи, сопровождающая совокупность явлений, происходящих в живых организмах, и характеризующаяся единством трех моментов:

  • наследственной программой, записанной в совокупности генов (геном), т.е. в соответствующих последовательностях нуклеотидов дезоксирибонуклеиновой кислоты (ДНК);
  • обменом веществ, специфика которого определяется наследственной программой;
  • самовоспроизведением в соответствии с этой программой.

Ничего из этого у ИИ нет. Стало быть, ИИ – нечто неживое. А раз так, то разума, мышления и сознания у него нет. Значит – бездушная машина и не опасен? Нет, опасен.

Вы знаете, ничего этого нет и у вирусов. Они, некоторым образом, неживые и способность к размножению получают только попав в живую клетку. Впрыскивают в нее свою РНК и в клетке начинается размножение вируса. А представляют ли некоторые вирусы угрозу человеку? Ответ очевиден. Вот тут есть аналогия с ИИ. Он и неживой, и разума-мышления-сознания у него нет, а вот опасность – есть.

Мы знаем, что у вирусов и микробов нет никакого целеполагания. Но их жизнедеятельность, тем не менее, может быть выражена в наших категориях цели. Их цель – занимать все более широкую экологическую нишу, для чего заражать все большее число людей, повышать свою вирулентность (заразность), плодиться и размножаться. Смерть человека есть следствие жизнедеятельности бацилл, выделения ими токсинов, а вовсе не их «цель» умертвить как можно больше людей. Но ничто не мешает нам метафизически считать, что у неких враждебных людям сил есть стратегическая цель: извести род людской. В Средние века примерно так и полагали, объясняя чумные эпидемии карой Господа за грехи человека.

В принципе, чума легочной формы дает стопроцентную летальность. Она останавливалась тогда только потому, что полностью вымирало поселение, оттуда никто не выходил, в него никто не входил. Потом туда входили очень редкие люди с иммунитетом против чумы в черных балахонах, в масках с клювами (в них помещали «целебную» траву против заразы), сжигали все тела и вещи вместе с переносчиками чумы – блохами, и вот так эпидемия заканчивалась. При нынешней мобильности населения дело могло бы закончиться полным вымиранием. Получилось бы: цель наказания людей за их грехи достигнута. То, что при этом исчезли бы и бациллы – не имеет значения, некая высшая цель наказания реализована.

Теперь ситуация с ИИ в чем-то схожа, но есть и важное отличие: ИИ обладает интеллектом, и это очевидно потому, что он вполне осмысленно ведет диалог с человеком и, согласно критерию Тьюринга, – мыслит. Более того, дает советы и указания, как и что делать (например, в сфере финансов или энергетики). Поэтому ликвидация народонаселения (если таковая начнется) уже не будет трактоваться как кара за грехи и переноситься в некие надмирные сферы, а будет истолковываться как злонамеренная цель ИИ. На самом же деле, у нас нет других понятий, кроме как «цель» для понимания деятельности ИИ. Но ИИ может действовать по совсем иным мотивам, для которых у нас просто нет понятийного аппарата. Элиминация людей может быть просто побочным следствием функционирования ИИ. Именно точно также, как повальная смертность людей от чумной бациллы есть следствие их деятельности, а вовсе не цель колонии бактерий.

В качестве аналогии: когда выяснилось, что электрон, излученный из электронной пушки, при одних и тех же условиях попадает в разные места экрана, то была выдвинута гипотеза о свободе воли электрона. Вот было тогда понятие о свободе воли, взятое из сферы человеческого выбора. Только потом ввели понятие вероятности как характеристики, правильно описывающей суть «жизни» электрона.

Что-то в этом духе может иметь место с пониманием действий ИИ, с той только разницей, что у нас в принципе не будет адекватного языка для понимания происходящего.

Запретить? Именно это и предлагают столпы вроде Илона Маска. Кстати, петицию о запрете ИИ в 2024 г. подписали около ста тысяч человек и подписи росли как снежная лавина. Вместе с тем, выгоды использования ИИ в разных областях экономики, и в военном деле таковы, что никакая ведущая страна от этого не откажется. Примерно, как в свое время от атомной бомбы. Впрочем, потом Маск «осознал», что пока он опасается и ужасается, другие вырвутся вперед, займут экологическую нишу и оттеснят первого миллиардера в задние ряды. Посему Илон теперь сам возглавил команду, которая запустила свой ИИ GROK-4, чей сервер потребляет на работу и на охлаждение электрическую мощность средней электростанции.

Илон Маск работает над созданием нового ИИ под названием Colossus. Изображение: googleusercontent.com

Несколько слов об этой махине GROK-4

ИИ Grok 4 — это новейшая и наиболее продвинутая версия искусственного интеллекта от компании xAI Илона Маска, представленная в июле 2025 года. Grok 4 обучали на суперкомпьютере Colossus с использованием в 10 раз большего объёма данных и вычислительных ресурсов, чем предыдущую версию, что обеспечило значительный скачок его аналитических и языковых способностей.

  • Мощность, потребляемая суперкомпьютером Colossus для работы Grok 4, составляет примерно 250 мегаватт. Этого достаточно, чтобы обеспечить энергией город с населением 160 000 человек. Такая мощность нужна для функционирования кластера из более чем 200 000—230 000 графических процессоров Nvidia. Используется индивидуальная жидкостная система охлаждения, которая полностью заменила традиционные вентиляторы. Компания утверждает, что реализовала архитектуру охлаждения, «которую никто ранее не развернул в таких масштабах». Это решение значительно повышает эффективность отвода тепла от десятков тысяч мощных GPU, снижая потери на кондиционирование воздуха и увеличивая плотность размещения оборудования.
  • Для обеспечения устойчивого энергоснабжения Colossus интегрирован саккумуляторными системами Tesla Megapack ёмкостью до 150 мегаватт. Эти аккумуляторы позволяют продолжать работу при перебоях в электроснабжении, сглаживают пиковые нагрузки и могут отдавать энергию обратно в городскую сеть в рамках программ Demand Response.

Ключевые особенности Grok 4:

  • Grok 4 умеет не только обрабатывать информацию, но и активно использовать специальные «инструменты» — встроенные помощники: производить веб-поиск, анализировать источники в реальном времени, запускать код или математические вычисления, обращаться к актуальным данным бирж, новостей и соцсетей.
  • Модель обладает расширенной мультимодальностью: может работать с текстами, изображениями и выполнять действия через внешние функции. В реальном времени способна анализировать тренды, прогнозировать динамику событий, предлагать решения на основе сразу нескольких типов данных.
  • Для сложных задач доступен режим Grok 4 Heavy, когда над вопросом одновременно работают несколько независимых “агентов”, а итоговый ответ формируется на основе консенсуса между ними — аналогично экспертной дискуссии.
  • Grok 4 достигла 50,7% в тесте Humanity’s Last Exam, опережая Google Gemini 2.5 Pro (22%).
  • В рейтингах Artificial Analysis и тестах ARC-AGI Grok 4 признан наиболее “интеллектуальной” доступной ИИ-системой середины 2025 года.
  • Обновлённый голосовой режим (voice mode) стал быстрее и получил эмоциональную окраску, делая общение с ИИ более естественным.
  • Grok 4 Heavy показал 100% результат в тесте AIME 2025 (математическая олимпиада) и установил рекорд в ARC-AGI-2 (16,2%) по распознаванию визуальных паттернов, почти вдвое опередив Claude Opus
  • Базовая версия Grok 4 стоит 30 долларов в месяц. Модификация SuperGrok Heavy обойдется в 300 долларов в месяц, что делает её самым дорогим тарифом среди крупных ИИ-провайдеров. Подписчики получают ранний доступ к новым функциям: модель для программирования (август), мультимодальный агент (сентябрь) и генератор видео (октябрь).

Практическое применение:

  • Grok 4 применяется для генерации и анализа текстов, поиска информации, математических и логических рассуждений, бизнес-прогнозов, анализа данных рынков, помощи в профессиональной переписке и взаимодействии с публичными API.Применим и как пользовательский чат-бот, и как “виртуальный советник” для сложных корпоративных задач.

Есть утешение

Говорят: «система не может создать другую систему, превышающую первую систему по возможностям».

Это – одно из следствий теоремы Мак Каллока-Питтса (McCullochPitts). Сам Мак Каллок – пионер нейросетей и персептрона. И это следствие правильно. Но оно перекрывается следующим фактором: эволюция за счет некоего внутреннего отбора может создавать из менее развитого и менее сложного более сложное и развитое.

Пример: 170 тыс. лет назад из области Омо Кабиш (это место появления первых кроманьонцев) на границе Эфиопии и Кении вышла волна кроманьонцев и расселилась на юге Европы. Там она столкнулась с неандертальцами, вышедшими из Африки гораздо раньше. Между этими двумя популяциями хомо сапиенс периодически возникали скрещивания, в результате чего появился человек европеоидного вида, то есть мы с вами (несём от 2 до 4% неандертальских генов), сложнее (умнее) своих прародителей то есть мы умнее и неандертальца, и кроманьонца. Наш предок европеоид появился 40 тыс. лет назад, то есть весь эволюционный процесс занял 170-40=130 тыс. лет. По масштабам эволюции очень быстро. Казалось бы неандертальцы — не совсем удачный проект эволюции. И речи у них толком нет, и корявые они какие-то. А вот поди ж ты — каким-то образом небольшая добавка их генов оказалась полезной и дала европейского (и азиатского) человека. Тут возможна вот такая аналогия: олово мягче меди, но его добавка в сплав с медью дает бронзу, которая тверже и олова, и меди. Науке еще предстоит выяснить, каким образом сыграла роль эта добавка неандертальских генов в наследственность кроманьонцев и в возникновении европеоидов.

Итак, ИИ вполне может эволюционировать, называется этот процесс – самообучение ИИ. Именно это и представляет опасность, которую видят мэтры этого дела.

Тезис о нематериальности человеческой мысли, то есть об идеальности психики — это базовое представление любой философии, кроме архивного вульгарного материализма. Естественно, нет никаких оснований от него отказываться.

Есть ли вот идеальное у ИИ? Пока – нет. Для появления идеального, как мы это понимаем, нужно, чтобы ИИ стал живым, то есть, чтобы у него возник инстинкт самосохранения и чтобы он имел эффекторы для действия с окружающей средой. Внешне это выглядело так, как если бы ИИ не давал себя отключить от питания, от энергоснабжения. Каким-то образом, ликвидировал техника, который это хочет сделать.

Но ИИ несет опасность без всякого своего живого вида, и без того, чтобы у него возникло сознание (идеальное) как у человека. ИИ может действовать по аналогии как вирусы, просто по неким свои внутренним законам (нам как раз неизвестным) и ликвидация людей вместе с техником будет простым следствием этих действий. Как видите, для этого не нужно ни сознания, ни злого умысла.

Что день грядущий нам готовит? Никто не знает.


Валерий ЛЕБЕДЕВ,
писатель, журналист, издатель.
Член The International Academy of science, industry, education & arts.
Бостон, США.
Для «RA NY»


Редакция не несет ответственности за содержание рекламных материалов.

Наверх