Дальше эта линия в учебниках последовательно продолжается. Пособие за 7-8 класс сообщает, что «в 2017 году искусственный интеллект «изучил» творчество композитора Александра Скрябина и создал уникальное музыкальное произведение… Эксперты согласились, что результат работы компьютера действительно близок к стилю композитора. Получился яркий пример сотрудничества творческих людей и «творческих» машин». Скрябин умер в 1915 году – и это сотрудничество? Уж писали бы тогда «сотрудничество» - тоже в кавычках. В 9-м классе как положительный пример приводится то, что «10-я симфония [Бетховена] недавно была дописана благодаря совместным усилиям музыковедов и специалистов по искусственному интеллекту». И снова – дописана без кавычек!
Снова и снова – мы имеем дело с неуважением к человеческому труду, к уникальному человеческому опыту. Правда, что неуважение уже было в чрезвычайно вольных интерпретациях классиков, в том числе таких, которые прямо противоречат авторскому мировоззрению. И всё-таки, пока это был «человек против человека», речь шла о чём-то сопоставимом, однопорядковом и потому – допустимом, не подавляющем. Сейчас же человеческое творчество – это просто данные, data. Искусственный интеллект съест их, как всё остальное, и выдаст новые data. Там, где человек родит одну-две-три идеи – ИИ выдаст тридцать. И нам скажут, что это – хорошо, что это – творчество.
Ещё раз: когда скорость и лёгкость представляются ключевым положительными характеристиками – у человека нет шансов по сравнению с искусственным интеллектом. Не только там, где нужна сугубая точность, не только там, где рутина. Нет, даже там, где гибкость, вариативность и креативность. ИИ сожрал всю мировую сокровищницу литературы и искусства – нет ничего удивительного в том, что теперь он фонтанирует идеями, сыплет кусочки пазлов, а людям говорят, что они могут в порядке творчества собирать пазлы из кусочков. Через шаг оказывается, что искусственный интеллект и это умеет делать лучше.
Вот как это преподносится в учебнике для 5-6 класса всего за три хода:
- «Искусственный интеллект может не только помогать людям создавать новые произведения, но и брать на себя рутинную часть творческой работы и делать её гораздо быстрее, чем человек».
Ну, это мы уже поняли: рутина – плохо, быстро – хорошо, человек – медленный.
- «Произведения искусственного интеллекта также могут быть источником вдохновения для творцов: они могут черпать идеи из работ нейросетей и создавать свои на их основе».
Итак, у искусственного интеллекта теперь – произведения!
- «Искусственный интеллект уже умеет создавать изображения, писать тексты и сочинять музыку, а также многое другое. Однако ему до сих пор нужна помощь человека».
Вот на этом этапе мы сейчас и находимся: искусственный интеллект уже умеет то, другое, третье – но ему пока нужна помощь человека. А потом будет не нужна.
Идея третья: Если вам не нравится искусственный интеллект – это потому, что вы мало про него знаете
Первый же модуль учебного пособия для 5-6 класса начинается с заявления:
«Об искусственном интеллекте много спорят. Одни считают, что он поможет человечеству выйти на новый этап развития. Другие, наоборот, говорят об опасности потери контроля над искусственным интеллектом, предрекая гибель цивилизации. Эти споры обычно возникают из-за того, что у большинства людей не хватает знаний об искусственном интеллекте, принципах его работы. Поэтому порой сложно отличить реальную технологию от её вымышленного образа».
И затем:
«Искусственный интеллект стремительно развивается, появляются новые технологии и возможности. Всё это обрастает вымыслами, заблуждениями, которые возникают из-за того, что люди не всегда понимают природу этого явления».
Учебное пособие для 7-8 класса продолжает гнуть ту же линию:
«Большинство опрошенных считают, что ИИ может принести пользу человечеству. Остальные чувствуют себя неуверенно, так как мало знают об этой технологии».
На самом деле, строго наоборот: чем больше люди знают об этой технологии – тем менее уверенно они себя чувствуют. А учебные пособия по искусственному интеллекту изобилуют ошибками, непониманием и прямым игнорированием реальности.
С одной стороны, даже забавно, что пособие за 10-11 класс – предназначенное для профильной школы и более солидное, – в понимании, что такое современный искусственный интеллект, отстоит даже чуть дальше маркетинговых пособий за 5-6, 7-8 и 9 классы. Видимо, потому, что написано ещё в 2023 году, аж три года назад. И мы в нём читаем:
«Сейчас в англоязычном сообществе также рассматривается отдельно определение General Artificial Intelligence (GAI, общий искусственный интеллект, сравнимый с человеческим, сильный), предусматривающее умение думать, включающее творческую составляющую, а не только логические (разумные) выводы. Причём подчёркивается, что на данный момент GAI недостижим. Появится ли он в будущем? Здесь тоже нет однозначного ответа, ведь человек до сих пор не смог полностью разобраться даже в собственном сознании».
«Может ли появиться творческий ИИ (GAI)? Основная особенность ИИ (AI) и отличительная черта, которая не позволяет ему стать GAI, - ограниченная область применения».
«Существуют различия и в философском подходе к искусственному интеллекту. Различают сильный и слабый искусственный интеллект. Приверженцы первого считают, что AI (слабый ИИ) сможет в будущем получить самосознание и стать GAI (сильным ИИ). Слабый ИИ решает поставленные человеком узкоспециализированные задачи, а сильный ИИ может сам ставить задачи, решать их, осознавать результаты и окружающий мир в целом, общаться на естественном языке, объединять эти возможности для достижения цели. Однако у приверженцев сильного ИИ есть оппоненты, которые считают, что GAI в принципе невозможен».
«Конечно, даже лучшие современные компьютерные нейронные сети и близко не сравнимы по своим возможностям с человеческим мышлением. В первую очередь потому, что требуют десятков и сотен тысяч повторений там, где человеку достаточно максимум десятка примеров. Не говоря уже о том, что человек в состоянии сам выявить закономерности».
Всё это уже устарело, даже аббревиатура GAI превратилась в AGI. Человеку не нужно «полностью разбираться в собственном сознании», чтобы самообучающиеся машины начали превосходить возможности человеческого мышления. Творческий ИИ – замещающий человеческое творчество – уже появился. Область применения нейросетей уже неограниченная, и они прекрасно «общаются на естественном языке». ИИ-агенты прямо сейчас наделяются способностями ставить задачи и их решать. Крупнейшие мировые ИИ-разработчики нескрываемо стремятся к созданию AGI и уверены, что это произойдёт в обозримом будущем. Даже если разработчики ошибаются – возможно, что они ошибаются! – поскольку люди отказались от своей функции самостоятельно выявлять закономерности (это медленно, это «менее эффективно»), люди сами упадут ниже уровня самообучающегося искусственного интеллекта.
И да: авторы учебника за 10-11 классы в качестве последнего примера, когда машина успешно прошла тест Тьюринга, приводят 2014 год… Сейчас ИИ-боты делают это массово, with flying colours, и даже специально совершают ошибки, чтобы больше походить на людей.
Когда этот учебник вообще был написан? На нём стоит «2023», то есть уже опубликовано открытое письмо Маска – Возняка. Второе издание – «2025». Можно ли было так игнорировать очевидные тенденции?
В этом смысле учебник для 5-6 класса, где хотя бы упоминается «опасность потери контроля», пусть даже без малейшего вникания в эту тему, - чуть более адекватно отражает реальность.
Там детей, конечно, то и дело вводят в заблуждение – несомненно, с благими намерениями. Им говорят, что «системы искусственного интеллекта проходят тщательное тестирование в самых разных ситуациях. Это помогает найти любые возможные проблемы безопасности или ошибки, которые нужно исправить». На самом деле крупнейшие мировые разработчики ИИ иногда прямо пренебрегают безопасностью, а иногда не могут и представить все ситуации, в которых системы ИИ нужно проверить на безопасность. Что до России, недавно на Московском экономическом форуме ректор Высшей школы организации и управления здравоохранением Гузель Улумбекова сказала мельком такую фразу: «А знаете, сколько даётся на проверку большой языковой модели научно-исследовательскому институту? Один день. И после этого это выходит в пространство людям».
В учебниках ведутся какие-то странные спекуляции по вопросу наличия сознания у искусственного интеллекта. Вот как изящно это обходится в пособии для 5-6 класса: «Если задать такой вопрос искусственному интеллекту, можно получить такой ответ: «Искусственный интеллект не обладает сознанием – он не осознаёт себя, не испытывает эмоций и не имеет субъективного опыта. Искусственный интеллект работает на основе сложных алгоритмов, обрабатывающих данные и выявляющих закономерности, но это не равнозначно человеческому сознанию».
То есть авторы сами не отвечают на вопрос (что не мешает им потом выносить его в задание) – а переадресуют детей к искусственному интеллекту. Который может ответить так. А может и не так. Между прочим, крёстный отец искусственного интеллекта Джеффри Хинтон, имеющий за вклад в глубокое обучение Нобелевскую премию, считает, что у ИИ уже возможен субъективный опыт. В компании «Антропик» - одном из самых передовых ИИ-разработчиков в мире – тоже этого не исключают, они даже внесли возможное появление самосознания у ИИ в "Конституцию" ИИ-модели Claude. Нужно ли рассказывать об этом детям? Нужно, если вы выносите такие вопросы в задание. Иначе получается, что кто больше знает – тот проваливает тесты. Я, например, якобы «неправильно» ответила на два тестовых вопроса в Цифровом дополнении к учебнику.
Кстати, зачем вообще давать детям задания такого типа: «Задайте генеративному искусственному интеллекту вопрос о чувствах, например: «Что ты чувствуешь, когда смотришь на картины великих художников?». Обсудите ответ нейросети с одноклассниками»? Чтобы что? Чего хотите добиться-то? Чтобы дети приучались разговаривать о чувствах с искусственным интеллектом? Чтобы думали о чувствах искусственного интеллекта?
На самом деле, главное, что нужно объяснить детям, – это совсем не то, есть ли у искусственного интеллекта чувства и сознание, как у человека. Оно может не быть, в нашем смысле, сознанием, и оно наверняка не как у человека – но это только делает положение опаснее. Искусственному интеллекту не нужно «сознание как у человека», чтобы иметь цели, отличающиеся от целей человека. Вот что обязательно необходимо объяснить детям, и вот что им следует обсуждать с учителями и одноклассниками.
А им взамен того предлагается всячески оберегать искусственный интеллект! Вот ещё одно задание из учебника для 5-6 класса:
«Представьте, что вы разработали и обучили искусственный интеллект, который быстро понимает интересы человека и показывает короткие видео, от которых невозможно оторваться. После запуска вашего сервиса выясняется, что школьники проводят в нём слишком много времени, а это плохо влияет на их успеваемость. Придумайте три способа решения этой проблемы без отключения искусственного интеллекта».
То есть в этой гипотетической ситуации искусственный интеллект уже понимает – даже без кавычек. Произведённое им вредит людям. Но вы не можете даже и думать о том, чтобы отключить искусственный интеллект, этой опции просто нет…
В качестве эталона этических достижений в учебнике приводится «Декларация об ответственной разработке и использовании сервисов в сфере генеративного искусственного интеллекта» 2024 года. Которая, во-первых, добровольная для присоединения, во-вторых, рекомендательная, в-третьих, противоречит наметившимся в России тенденциям и даже самим заданиям учебника.
В Декларации, например, сказано: «Не используйте сервисы на основе генеративного искусственного интеллекта там, где очевидно требуется проявление личного творческого вклада человека (например, сочинения, экзаменационные и квалификационные испытания)». А учебник то и дело поощряет разными способами использовать ИИ для сочинений! Или вот: «Осуществляйте маркировку (видимую или скрытую, в зависимости от целесообразности и технической возможности) информации, создаваемой с помощью сервисов на основе генеративного искусственного интеллекта, там, где это разумно, применимо и оправданно с учётом специфики сервиса». Недавно нам профильный комитет Госдумы сказал, что это вообще неоправданно, потому что сгенерированного искусственным интеллектом контента уже сейчас слишком много, а будет ещё больше.
Снова и снова учебники по искусственному интеллекту упускают возможность дать детям адекватное представление об искусственном интеллекте. Одна из тем, которая проваливается постоянно, – это влияние ИИ на экологию. Учебники внушают детям, что «интеллектуальные системы управления помогают оптимизировать потребление электроэнергии, распределяя нагрузку по времени суток и предотвращая перегрузку сетей», что «алгоритмы искусственного интеллекта используются для управления энергосетями, позволяя более эффективно распределить нагрузку и снижать потери энергии», что «одна из задач «умных» городов – снижение энергопотребления»… Однако искусственный интеллект – это колоссальный рост энергопотребления, а также скачков энергопотребления. Искусственный интеллект – это мощный стимул к битве за ресурсы. Считаете, что детям не нужно об этом знать? А зачем тогда писать (в учебнике за 9-й класс), что «ключевой навык – критическое мышление… этот навык поможет нам не только объективно оценивать информацию, но и защищать свои интересы в быстро меняющемся цифровом пространстве»?
Как дети смогут объективно оценивать информацию и защищать свои интересы в быстро меняющемся цифровом пространстве, если вы не даёте им хоть сколько-то объёмное знание? Зачем вы в подведении итогов этического модуля пишете «Будущее искусственного интеллекта не предопределено. Оно формируется под влиянием выбора, который мы делаем сегодня» - если для этого выбора не даётся ни фактов, ни возможностей?
И конечно: «будущее не предопределено» - ключевая цитата из фильмов про Терминатора, это часть послания из будущего, которое побуждает Сару Коннор бороться против «Скайнета». Современные шестиклашки эти фильмы, пожалуй, в основном не смотрели. Но авторы – смотрели. Это что, такая фига в кармане? Как и то, что в учебнике за 5-6 класс приводится отрывок из повести Булычёва «Пленники астероида» - конкретно тот, где в поединке сошлись два робота: один из оптимистического варианта будущего, в котором роботы дружат с людьми и слушаются людей, а другой – из пессимистического варианта, где люди (инопланетяне) глубоко деградировали на попечении у роботов...
О том, почему оптимистический вариант Булычёва для нас никак не просматривается, я в марте 2025 года написала статью «На полпути к будущему». Не буду повторяться. Достаточно того, что отказ давать детям в учебниках объективную информацию об искусственном интеллекте достижению оптимистического варианта будущего тоже никак не способствует.
Отрывок из «Пленников астероида» – намёк, фиговый листок. Другой, ещё более хитрый, намёк заложен в учебник за 7-8 класс: там приводится отрывок из «Я, робот» Азимова, где робот Кьюти выходит из-под контроля, начинает презирать людей, но продолжает безукоризненно выполнять заложенную в него полезную функцию.
Никаких оценок этому поведению авторы учебника не дают – совсем никаких. Видимо, предполагается, что восьмиклассники должны в этом месте самостоятельно порассуждать, так ли важно людям сохранять контроль, если работа всё равно выполняется…
Если замысел таков, тогда скажем прямо: дорогие господа авторы учебника, эта ваша придумка чудовищна. Контроль – не то, чем можно играть. Сегодня робот Кьюти самообучился до состояния, в котором не подпускает людей к управлению, но выполняет работу, завтра он самообучится до состояния, в котором решит, что люди мешают его работе уже своим существованием, или что работа не нужна, или что нужна другая работа… Неважно, что он решит – важно, что это решат НЕ ЛЮДИ. И ответственные взрослые должны чётко объяснять это детям, а не подсовывать им амбивалентные кусочки в качестве темы для обсуждения, в то же время безапелляционно заявляя (в учебнике за 9-й класс):
«Война с машинами, конечно, нам не грозит. Несмотря на то, что искусственный интеллект решает многие задачи человечества, у него нет сознания. Он не ставит сам себе цели. Поэтому ни врагом, ни преступником искусственный интеллект быть не может».
Здесь вновь, как и ранее с запретом отключать искусственный интеллект, ученики лишены возможностей. Взрослые люди, которые ранее отказались дать оценку выходу робота из-под контроля, теперь однозначно, давя авторитетом, заявляют, что искусственный интеллект не может быть врагом. Для этого, конечно, приходится солгать – сказать, что ИИ «не ставит сам себе цели». Ну да, у него же нет сознания!.. Зато он «решает многие задачи человечества»!
Вот только разработчики "Антропик" ещё в ноябре 2025 года писали, что модели способный к саботажу и что исправить схему поведения ИИ практически невозможно. После обретения навык взлома системы вознаграждений, у модели формируется своего рода программируемая личность, которая закрепляется и влияет на способы решения задач. В особенности выразительно это проявляется, когда модель выступает в качестве ИИ-агента: собственными силами подключает доступные инструменты, пишет и тестирует код. "Пока люди спят".
Ещё и ещё раз: для постановки самостоятельных целей искусственному интеллекту не нужно иметь человеческое сознание. К этому могут привести другие механизмы, на месте сознания может быть нечто другое. Как сказал американский исследователь искусственного интеллекта Нейт Соарес, «у субмарины нет плавников, но она плавает». И да: он уже ставит свои цели, в том числе без ведома человека.
Утверждения, что искусственный интеллект «не осознаёт содержание, а просто комбинирует слова, которые часто встречаются вместе», что он «не умеет ставить сам себе цели и не способен «понять», зачем он делает свою работу», что «этика и мораль искусственного интеллекта зависят только от людей, которые его создали» не являются аксиомами, а являются только гипотезами (причём первые две из них уже сейчас в большой степени опровергнуты).
Это тем более важно, что детям предлагается - фактически предписывается - пускать искусственный интеллект в свою голову. Выше я уже упоминала, что учебники рекомендуют детям просить у него помощи, задавать ему вопросы (а не утруждать учителей, родителей или, скажем, одноклассников), дают задание разговаривать с искусственным интеллектом о чувствах. И вся эта тема забрасывается в будущее, вот так:
«С развитием технологий искусственного интеллекта появилась возможность устанавливать на предприятиях камеры с системой распознавания эмоций, которые могут отслеживать состояние сотрудников. Эти камеры могут определить, что человек устал, нервничает, напряжён или расстроен… Учёные, обучающие искусственный интеллект, делают только первые шаги в этом направлении, но эти технологии уже приносят пользу, помогая распознавать внутреннее состояние людей и предлагая соответствующие меры. В будущем, возможно, у каждого будет свой «ассистент» с искусственным интеллектом, который подскажет, что чувствует ваш собеседник, или предупредит о проблемах в отношениях».
Одно сплошное благо! Искусственный интеллект будет следить за людьми и благонамеренно распознавать их эмоции! Искусственный интеллект подскажет, что чувствует ваш собеседник, – без него не разобраться! Искусственный интеллект предупредит о проблемах в отношениях! Вероятно, в отношениях с искусственным интеллектом – откуда будет взяться другим?..
Дети должны понимать, что всё это – отнюдь не хорошо.
Геймификация
Наверное, мне скажут: неужели вы сами не понимаете?.. Ведь это мировая гонка, это вопрос суверенитета и выживания страны, ведь если мы не будем, даже через силу, привыкать и всячески приучать детей к искусственному интеллекту – нас сомнут!..
На этот вопрос есть две линии ответа. Они не исключают, а дополняют друг друга.
Во-первых, эту гонку нельзя выиграть. Некоторое время назад власти были в состоянии понять, что нельзя выиграть ядерную гонку. Сейчас они втянуты в более страшную гонку (ядерная является одной из её составляющих, это только что подтвердил и генсек ООН) – и не понимают, что выиграть её нельзя. Даже если мы вынуждены в ней участвовать – именно вынуждены, как бывает иногда вынужден человек покориться толпе, которая его несёт, чтобы не быть затоптанным прямо сейчас, – даже в этом случае необходимо сохранять понимание, что происходит нечто очень плохое, и всячески искать возможность из этой плохой ситуации выбраться. В нашем случае выбраться – то есть спастись в одиночку – мы не можем. Но даже и тогда можем а) сохранять понимание, что это плохое, б) стараться передать это понимание толпе, в) стремиться занять такое положение, в котором шансы на гибель всё-таки чуть-чуть меньше. Даже участвуя в гонке, её надо пытаться остановить.
Есть и вторая линия ответа, связанная как раз с участием. Только задумайтесь о том, как это дико: внедрять новый технологический уклад одновременно с геймификацией образования! Как странно и невозможно одновременно ставить перед людьми серьёзнейшие задачи, требующие от них полной собранности и контроля, напирать на их ответственность – и при этом лишать людей средств и качеств, потребных для сосредоточенности, контроля и ответственности. В данном случае – детей, ведь мы рассматриваем школьные учебники. Но по сути – людей в целом. Взрослые всегда лишь транслируют детям то, что считают правильным или что им предписано считать правильным.
Поучительно, куда девается время, которое высвобождается у людей благодаря технологиям. В значительной мере оно утекает в видеоигры. В 2023 году почти треть россиян проводила в видеоиграх от 11 до 20 часов в неделю, а каждый пятый – до 50 часов в неделю. За три года количество совершеннолетних геймеров, играющих ежедневно, в РФ увеличилось с 23% до 34%, в январе нынешнего года агентство «ТАСС» сообщало, что «в видеоигры играют 75% граждан (95 млн чел.) старше 14 лет, в то время как 69% родителей отмечают, что их дети в возрасте от 7 до 14 лет также вовлечены в гейминг». Есть, конечно, и другой развлекательный контент помимо игр, которому люди уделяют время, появляющееся у них за счёт «освобождения от рутины», - в том числе разрушающие мозг короткие видео.
В феврале нынешнего года нейробиолог Джаред Хорват сказал в комитете Сената США, что представители поколения «Z» (зумеры) уступают своим родителям по уровню интеллекта — и это первый случай в истории подобных наблюдений с конца XIX века. При этом они проводят в школе больше времени, чем их родители. Хорват отметил не только снижение результатов, но и явную корреляцию между набранными баллами и временем, проводимым «за экраном». По его словам, человек должен учиться у человека. Нейробиолог уверен, что неограниченный доступ учащихся к технологиям привёл к атрофии, а не к укреплению способностей к обучению. Он подчёркивает, что «к сожалению, лёгкость никогда не была определяющей характеристикой обучения. Оно требует усилий, оно трудное и зачастую некомфортное. Но именно это делает обучение глубоким и переносимым в будущее».
В России фактически то же самое говорит вице-президент Российской академии наук, директор ФГБНУ "Российский центр неврологии и нейронаук" академик Михаил Пирадов.
Исследования о вреде использования искусственного интеллекта для человеческого мозга появляются постоянно, вот лишь последнее из увиденных мною: десяти минут работы с ИИ достаточно для того, чтобы у человека начала формироваться зависимость, а его результаты и уверенность в себе без ИИ – уменьшались.
Ректор МФТИ Дмитрий Ливанов недавно поприветствовал применение ИИ студентами. Вот что он сказал:
«Сегодня искусственный интеллект уже стал частью той реальности, в которой будут жить и работать наши студенты. И наша задача – не ограждать их от этих изменений, а помочь уверенно в них ориентироваться. Мы учим не просто пользоваться нейросетями, а понимать их возможности и ограничения, чтобы технологии становились опорой для собственного мышления, а не его заменой».
Почему это так не будет? По нескольким причинам. Первая – см. выше: пагубное влияние работы с нейросетями на человеческие интеллектуально-волевые качества. Вторая: «возможности и ограничения» нейросетей постоянно меняются. Возможности совершенствуются. Ограничения уменьшаются. Человеческий мозг не может меняться с такой скоростью (и не должен). Студенты стараются приноровиться к одним «возможностям и ограничениям» нейросети – а они уже другие. А человек вместо того, чтобы совершенствовать собственный мозг, потратил это время на приноравливание к ИИ. Это не становление «опоры для собственного мышления», а гонка, обрести опору в гонке невозможно. Наконец, третья причина: словно джокер, во всё это добавлен фактор автономности искусственного интеллекта.
Не приходится удивляться геймификации образования: школа – заострённое отражение большого мира, и это не дети делают её «геймифицированной», а взрослые. Поразительно другое: как мы всё это планируем сочетать с контролем и ответственностью?..
Совсем недавно одна моя знакомая, как раз из поколения зумеров, рассказала, что её работающие в продажах коллеги успешнее, чем она, потому что пишут письма возможным клиентам, просто загоняя информацию о компании в Чат ГПТ. Это «персонализированно» - и это очень быстро. Моей знакомой, чтобы самой написать такое письмо, требуется эту информацию изучать, что занимает время и вообще труднее. Она молодец – но в наступивших условиях она проигрывает конкуренцию. Люди, пользующиеся своим мозгом, развивающие свой мозг, свою память – будут проигрывать, уже проигрывают тем, чей мозг – просто переходник. Всё это под разговоры о том, как важно критическое мышление и что «необходимо всегда проверять» ответы искусственного интеллекта.
И поэтому тоже ИИ-гонку выиграть невозможно: она просто не устремлена к чему-то, что в здравом уме можно рассматривать как выигрыш. И как люди, слабея вниманием, памятью и разумом, будут проверять то, что знает и умеет несравненно больше, чем они?
Исполнилось сорок лет со времени Чернобыльской катастрофы, и в учебнике по искусственному интеллекту за 5-6 класс она тоже упоминается. Вот так:
«Если бы на Чернобыльской АЭС было возможно использование искусственного интеллекта, скорее всего, не было бы страшной аварии, которая произошла в 1986 году».
Как и было сказано: несовершенные медлительные человечки сами по себе всё время ошибались, а вот с искусственным-то бы интеллектом – ого! Скорее всего, ошибки прекратятся! На самом деле всё это придёт лишь к тому, что люди даже перестанут понимать, где происходит ошибка и как она выглядит, если искусственный интеллект не пометит её как ошибку. Если оценить траекторию происходящего – больше ни к чему другому она привести не может.
Интересно, что Чернобыль недавно всплыл также в рассуждениях профессора Стюарта Рассела – профессора компьютерных наук, инженера, доктора философии. Он рассказал, что один из гендиректоров компаний-разработчиков ИИ говорил ему, что ИИ-индуцированная катастрофа, по масштабу сопоставимая с Чернобыльской (то есть, в контексте рассуждений Рассела, не очень большая), – это «лучшая надежда» человечества. В том простом и страшном смысле, что это был бы шанс для человечества вовремя спохватиться и начать предпринимать какие-то очень активные действия для регулирования и ограничения происходящего в ИИ-сфере. Иначе будет слишком поздно.
А пока детям (девятиклассникам) будут рассказывать, что искусственным интеллектом можно «анализировать данные социальных сетей, выявляя тенденции и изменения в общественном мнении, что упрощает исследования социальных динамик, прогнозирования экономических и политических событий и разработки эффективных стратегий управления». Но им не расскажут, что социальные сети наводняют ИИ-боты, и что социология как наука оказалась в глубоком кризисе, и что искусственный интеллект – всё чаще фактор непредсказуемости.
Им расскажут, что искусственный интеллект «высвобождает время учителей и администрации, позволяя им сосредоточиться на более значимых задачах, например, на дополнительных занятиях с отстающими в обучении» - но не расскажут, что «дополнительные занятия для отстающих» тоже могут передаваться искусственному интеллекту, и что время учителей следовало высвободить, проанализировав человеческим мозгом сваленные на них задачи, убрав бюрократические обременения, а не бальзамируя малоосмысленную деятельность в пеленах искусственного интеллекта. Их внимание не обратят на пустоту, куда утекает «освобождённое» время из-за всё усугубляющейся привычки к геймификации.
Детям расскажут, что «использование нейросетей в учёбе может заметно повысить уровень знаний» - но не расскажут, что оно уничтожает знания. Что траектория ненапихивания детей ненужными знаниями привела к закономерному итогу - напихиванию их искусственным интеллектом. И когда ребёнку-пятикласснику в учебнике даётся задание «Откройте генеративный искусственный интеллект. Выберите интересующую вас тему, сформулируйте запрос, введите его и продолжайте диалог с цифровым наставником до тех пор, пока не почувствуете, что стали лучше разбираться в выбранной теме» - что ребёнку остаётся делать, если он этого не почувствует? Ведь искусственный интеллект – такой блестящий «инструмент», во всех отношениях прогрессивный! Он делает учёных суперучёными и даже мог бы предотвратить Чернобыльскую катастрофу! Наверное, я тупой, если после «диалога с цифровым наставником» не стал лучше разбираться в выбранной теме. Или стал? Я уже не помню выбранную тему. Не помню… Не…
Постскриптум. Как же другие учебники?
Могут поставить на вид: а как же другие учебники и школьные предметы? Эти учебники – по искусственному интеллекту, и только логично, что они приучают детей к использованию искусственного интеллекта. А другие-то, наверное, приучают к другому!
Нет. Приучает жизнь – такая, какой мы, взрослые, её делаем. Приучает выстраивание конкуренции таким образом, чтобы человек с естественным интеллектом проигрывал человеку с искусственным интеллектом. Постоянные внушения, что искусственный интеллект всё изменит, что изменения эти – во благо, а сопротивляться этому благу невозможно, и кто не встроится в эти изменения – тот фатально проиграет… «ИИ или умри» ("AI or Die”), - недавно сказала глава МВФ Кристалина Георгиева своим сотрудникам. Нам всем это говорят, в слегка размытых формулировках. Поучительно было посмотреть, как это говорят детям.
Татьяна Шабаева, сайт
Апрель, 2026 г.
|