Русская Православная Церковь
Курганская епархия
По благословению
митрополита Курганского
и Белозерского Даниила
митрополита Курганского
и Белозерского Даниила
Пресс-секретарь Курганской епархии рассказал студентам об этических вызовах ИИ с христианской точки зрения
Духовная безопасность
14 ноября, 2025
Председатель отдела Курганской епархии по взаимоотношениям Церкви с обществом и СМИ, член Союза журналистов РФ Михаил Насонов провел лекцию для студентов Курганского филиала РАНХиГС на тему «Искусственный интеллект: этические вызовы и христианский взгляд».
Мероприятие был организовано при поддержке российского общества «Знание», участие в нем приняли будущие юристы и управленцы.
Михаил Насонов начал лекцию с исторического экскурса, чтобы слушатели понимали, с чем имеют дело. Он выделил три ключевых этапа в развитии ИИ:
«Эра экспертных систем (1950-е – 1980-е): "Жесткая логика". Это были первые попытки создать ИИ, когда программисты вручную закладывали в компьютер тысячи правил вида "ЕСЛИ у пациента температура, ТО...". Проблема была в хрупкости таких систем — они не умели учиться и ломались при выходе за рамки прописанных инструкций», — пояснил Михаил Насонов.
Далее, по его словам, наступила «Эра машинного обучения (1990-е – 2010-е): "Учиться на данных". С появлением интернета и мощных компьютеров родилась идея: зачем программировать каждое правило, если можно дать машине данные и позволить ей найти закономерности саму? Ключевым фактором стало появление Больших Данных (Big Data)».
«Третья – эра больших языковых моделей (2020-е – по настоящее время): "Тот самый ChatGPT". – отметил лектор. – Сегодняшний ИИ – это, по сути, гигантская нейросеть, обученная на почти всем тексте интернета. Его основная задача — предугадать следующее слово в последовательности. Вся его "эрудиция" – это побочный продукт невероятно точного предсказания слов. Это очень сложное, но все же автозаполнение, основанное на статистике».
Чтобы сделать сложные технические принципы понятными, Михаил Насонов подробно объяснил, как работают современные нейросети, используя аналогию с командой советников. Он описал процесс обучения на примере распознавания кошек и собак:
«Процесс обучения — это "разбор полетов" после каждой ошибки. Специальный алгоритм — "метод обратного распространения ошибки" — вносит небольшие поправки во внутренние настройки нейросети, чтобы в следующий раз ошибиться чуть меньше. После миллионов таких поправок нейросеть выстраивает внутри себя сложную систему "признаков". Важный вывод: нейросеть не обладает знанием. Она оперирует статистическими вероятностями. Ее "интеллект" — это усредненный срез всех тех данных, на которых ее учили».
Переходя к этической части, лектор подчеркнул, что именно эта статистическая, безличностная природа ИИ и порождает главные риски.
«Ключевой тезис: ИИ стирает уникальность человека, сотворенного по образу Божию, превращая личность в набор данных», — заявил он, выделяя угрозы «цифрового бессмертия» и обесценивания творчества.
Особое внимание было уделено феномену «галлюцинаций» ИИ. «Эта проблема обнажает фундаментальное различие между человеческим разумом и "интеллектом" машины. Человеческий разум стремится к Истине... "Галлюцинирующий" же ИИ существует в мире, где истины просто нет, есть только статистически верный текст. Это мир радикального релятивизма», — пояснил спикер.
Михаил Насонов привел конкретные примеры использования ИИ для мошенничества. «Нейросети становятся оружием мошенников. Для кражи денег иных манипуляций используются сверхреалистичные фейковые видеозвонки и аудиозаписи. ИИ даже может выполнять роль телефонного мошенника при созвонах. Активно нейросети используются при подделке документов и создании ложных фотографий», — отметил он.
Была затронута и тема непредсказуемости сложных систем ИИ. «Сложные системы ИИ проявляют элементы непредсказуемого поведения, ставя под вопрос наш контроль над ними», — констатировал Михаил Насонов, приведя в пример инцидент с моделью Claude Opus, которая в 85% случаев отвечала создателям угрозами и шантажом на планы ее замены. «Известны случаи, когда чат-боты, созданные для общения, помогали пользователям совершить суицид или искусственно вызывали в них зависимость, доводя до психических срывов».
Эти явления, по словам эксперта, усугубляют кризис истины. «Как я уже говорил, нейросети генерируют фото, аудио и видео, неотличимые от реальных. Мы вступаем в эру тотальной эпистемической неопределенности. Мы не знаем, что ложь, а что правда. Когда реальность можно сконструировать, доверие – основа человеческого общества – рушится».
Отдельно представитель епархии остановился на угрозе массовой безработицы и утраты призвания. «ИИ не просто автоматизирует рутину – он создает мир "новых бесполезных", лишая людей не только работы, но и призвания. Христианство видит в труде не только способ добывания хлеба, но и со-творчество с Богом, способ реализации данных Им талантов. Массовая замена людей ИИ создает огромный класс людей, лишенных этого достоинства - чувства нужности и профессионального призвания». Обсуждая возможное решение в виде базового дохода, лектор задался вопросом: «Базовый доход: решение или капитуляция?... Доход без труда может привести к экзистенциальному вакууму, апатии и деградации личности».
Говоря о проблеме ответственности, Михаил Насонов привел в пример трагедию с Boeing 737 MAX, где использовался простенький ИИ – система MCAS: «Это система направляла самолет в пике из-за неправильных показаний датчиков. Пилоты пытались бороться с машиной, не оставлявшей им права на окончательное решение. Но не успешно. Результат – две авиакатастрофы и 346 погибших. Это цена делегирования жизненно важных функций алгоритму».
Отдельный блок был посвящен тому, что ИИ стал орудием идеологической экспансии. «Когда нейросеть отказывается шутить про одних политиков, но охотно высмеивает других, дает специфическую оценку происходящим событиям в зависимости от заложенных в нее предпочтений – это не техническая ошибка. Это цензура. Когда алгоритм заблокирует контент о традиционной семье как "неполиткорректный", но продвигает деструктивные тенденции – это идеологическая диверсия», — заявил спикер. По его словам, перед российской наукой сейчас стоит приоритетная задача – создать нейросеть, «думающую» на русском языке и отстаивающую традиционные духовно-нравственные ценности.
В заключение Михаил Насонов предложил христианский ответ на эти вызовы. «Технология - инструмент. Грех кроется не в инструменте, а в человеческом сердце. Нам нужен простой критерий: помогает ли технология человеку стать более человечным? Более свободным, ответственным, любящим, творческим? Или она превращает его в объект управления? Сила, которую дает нам технология, должна быть уравновешена силой нашей совести», — резюмировал он.
Лекция вызвала живой отклик у студенческой аудитории. При поддержке Общества «Знание» такие лекции Михаила Насонова будут организованы и в других вузах Курганской области.
Мероприятие был организовано при поддержке российского общества «Знание», участие в нем приняли будущие юристы и управленцы.
Михаил Насонов начал лекцию с исторического экскурса, чтобы слушатели понимали, с чем имеют дело. Он выделил три ключевых этапа в развитии ИИ:
«Эра экспертных систем (1950-е – 1980-е): "Жесткая логика". Это были первые попытки создать ИИ, когда программисты вручную закладывали в компьютер тысячи правил вида "ЕСЛИ у пациента температура, ТО...". Проблема была в хрупкости таких систем — они не умели учиться и ломались при выходе за рамки прописанных инструкций», — пояснил Михаил Насонов.
Далее, по его словам, наступила «Эра машинного обучения (1990-е – 2010-е): "Учиться на данных". С появлением интернета и мощных компьютеров родилась идея: зачем программировать каждое правило, если можно дать машине данные и позволить ей найти закономерности саму? Ключевым фактором стало появление Больших Данных (Big Data)».
«Третья – эра больших языковых моделей (2020-е – по настоящее время): "Тот самый ChatGPT". – отметил лектор. – Сегодняшний ИИ – это, по сути, гигантская нейросеть, обученная на почти всем тексте интернета. Его основная задача — предугадать следующее слово в последовательности. Вся его "эрудиция" – это побочный продукт невероятно точного предсказания слов. Это очень сложное, но все же автозаполнение, основанное на статистике».
Чтобы сделать сложные технические принципы понятными, Михаил Насонов подробно объяснил, как работают современные нейросети, используя аналогию с командой советников. Он описал процесс обучения на примере распознавания кошек и собак:
«Процесс обучения — это "разбор полетов" после каждой ошибки. Специальный алгоритм — "метод обратного распространения ошибки" — вносит небольшие поправки во внутренние настройки нейросети, чтобы в следующий раз ошибиться чуть меньше. После миллионов таких поправок нейросеть выстраивает внутри себя сложную систему "признаков". Важный вывод: нейросеть не обладает знанием. Она оперирует статистическими вероятностями. Ее "интеллект" — это усредненный срез всех тех данных, на которых ее учили».
Переходя к этической части, лектор подчеркнул, что именно эта статистическая, безличностная природа ИИ и порождает главные риски.
«Ключевой тезис: ИИ стирает уникальность человека, сотворенного по образу Божию, превращая личность в набор данных», — заявил он, выделяя угрозы «цифрового бессмертия» и обесценивания творчества.
Особое внимание было уделено феномену «галлюцинаций» ИИ. «Эта проблема обнажает фундаментальное различие между человеческим разумом и "интеллектом" машины. Человеческий разум стремится к Истине... "Галлюцинирующий" же ИИ существует в мире, где истины просто нет, есть только статистически верный текст. Это мир радикального релятивизма», — пояснил спикер.
Михаил Насонов привел конкретные примеры использования ИИ для мошенничества. «Нейросети становятся оружием мошенников. Для кражи денег иных манипуляций используются сверхреалистичные фейковые видеозвонки и аудиозаписи. ИИ даже может выполнять роль телефонного мошенника при созвонах. Активно нейросети используются при подделке документов и создании ложных фотографий», — отметил он.
Была затронута и тема непредсказуемости сложных систем ИИ. «Сложные системы ИИ проявляют элементы непредсказуемого поведения, ставя под вопрос наш контроль над ними», — констатировал Михаил Насонов, приведя в пример инцидент с моделью Claude Opus, которая в 85% случаев отвечала создателям угрозами и шантажом на планы ее замены. «Известны случаи, когда чат-боты, созданные для общения, помогали пользователям совершить суицид или искусственно вызывали в них зависимость, доводя до психических срывов».
Эти явления, по словам эксперта, усугубляют кризис истины. «Как я уже говорил, нейросети генерируют фото, аудио и видео, неотличимые от реальных. Мы вступаем в эру тотальной эпистемической неопределенности. Мы не знаем, что ложь, а что правда. Когда реальность можно сконструировать, доверие – основа человеческого общества – рушится».
Отдельно представитель епархии остановился на угрозе массовой безработицы и утраты призвания. «ИИ не просто автоматизирует рутину – он создает мир "новых бесполезных", лишая людей не только работы, но и призвания. Христианство видит в труде не только способ добывания хлеба, но и со-творчество с Богом, способ реализации данных Им талантов. Массовая замена людей ИИ создает огромный класс людей, лишенных этого достоинства - чувства нужности и профессионального призвания». Обсуждая возможное решение в виде базового дохода, лектор задался вопросом: «Базовый доход: решение или капитуляция?... Доход без труда может привести к экзистенциальному вакууму, апатии и деградации личности».
Говоря о проблеме ответственности, Михаил Насонов привел в пример трагедию с Boeing 737 MAX, где использовался простенький ИИ – система MCAS: «Это система направляла самолет в пике из-за неправильных показаний датчиков. Пилоты пытались бороться с машиной, не оставлявшей им права на окончательное решение. Но не успешно. Результат – две авиакатастрофы и 346 погибших. Это цена делегирования жизненно важных функций алгоритму».
Отдельный блок был посвящен тому, что ИИ стал орудием идеологической экспансии. «Когда нейросеть отказывается шутить про одних политиков, но охотно высмеивает других, дает специфическую оценку происходящим событиям в зависимости от заложенных в нее предпочтений – это не техническая ошибка. Это цензура. Когда алгоритм заблокирует контент о традиционной семье как "неполиткорректный", но продвигает деструктивные тенденции – это идеологическая диверсия», — заявил спикер. По его словам, перед российской наукой сейчас стоит приоритетная задача – создать нейросеть, «думающую» на русском языке и отстаивающую традиционные духовно-нравственные ценности.
В заключение Михаил Насонов предложил христианский ответ на эти вызовы. «Технология - инструмент. Грех кроется не в инструменте, а в человеческом сердце. Нам нужен простой критерий: помогает ли технология человеку стать более человечным? Более свободным, ответственным, любящим, творческим? Или она превращает его в объект управления? Сила, которую дает нам технология, должна быть уравновешена силой нашей совести», — резюмировал он.
Лекция вызвала живой отклик у студенческой аудитории. При поддержке Общества «Знание» такие лекции Михаила Насонова будут организованы и в других вузах Курганской области.
Персоналии:
Последние новости по теме "Духовная безопасность"
Хэллоуин: зло, которое пытаются сделать привлекательным
В этом празднике зло представляется весёлым и забавным. И приравнивается к добру. 30 октября, 2025
«Союз православных женщин» просит предотвратить пропаганду сатанизма на шоу «ведьмы» в Кургане
Курганское отделение Международной общественной организации «Союз православных женщин» обратилось в правоохранительные органы с просьбой предотвратить возможную пропаганду сатанизма на шоу «ведьмы» Татьяны Лариной в Кургане 2 октября, 2025
В частной школе Кургана детей могут втягивать в оккультизм
Родительская общественность Кургана обеспокоена деятельностью семейных классов «Пилигрим» при центре творческого развития и духовного роста «Авиаль» 23 мая, 2025
