Сила алгоритмов
Анализирует данные, выявляет закономерности и предоставляет результаты за время, невозможное для человеческого разума. В медицине может помочь в ранней диагностике заболеваний.
Corina Cristea, 06.02.2026, 18:09
Анализирует данные, выявляет закономерности и предоставляет результаты за время, невозможное для человеческого разума. В медицине может помочь в ранней диагностике заболеваний. В экономике может предвидеть риски. В образовании может персонализировать обучение. Речь идет об искусственном интеллекте — чрезвычайно влиятельном инструменте, который формирует повседневную жизнь. Во многих областях решения уже не принимаются только людьми — какой маршрут выбрать в пробке или получить ли кредит, это только два примера в этом смысле. А за этим стоят алгоритмы, которые, по сути, являются наборами правил, созданными людьми для решения проблем. Как инструменты, они чрезвычайно ценны. Проблема возникает, однако, когда алгоритмы перестают быть просто консультантами или помощниками и становятся теми, кто принимает решения. Адриан-Виктор Вевера, директор Национального института исследований и разработок в области информатики в Бухаресте: «В Украине появились дроны First Person View, которые атакуют первое увиденное лицо, а некоторые из них уже тестируют режим искусственного интеллекта, который может самостоятельно выбирать цели. Возник вопрос, является ли это будущим. В конце концов, позволить нечеловеческой сущности принимать решения о человеческой жизни — это то, о чем еще недавно мы и не задумывались. Если мы расширим область обсуждения с того, что означает искусственный интеллект в общественной сфере как поддержка, как помощник, как инструмент, с помощью которого мы можем стать более продуктивными, более дешевыми в эксплуатации, более быстрыми, и дойдем до того, что решение о человеческой жизни будет приниматься «руками» искусственного интеллекта, то это будет очень долгий путь. Речь идет о том, чтобы оставить окончательное решение на откуп нечеловеческой сущности. Да, медицина, по-видимому, является одной из самых успешных областей, в которой это будет реализовано быстрее всего. Для приложения, которое может сканировать и сравнивать миллионы изображений, это гораздо проще, чем для человека, который учится этому годами и приобретает ту тонкость в постановке диагноза, которая требует много, много времени». Алгоритм, который отбирает кандидатов на вакансию, может непреднамеренно дискриминировать. Автоматическая система оценки риска может по-разному относиться к людям, находящимся в одинаковых ситуациях. Насколько большой контроль следует предоставить искусственному интеллекту? Где заканчивается польза и начинается риск? Искусственный интеллект должен оставаться контролируемым вспомогательным инструментом — он может анализировать, давать рекомендации или предупреждать, но окончательное решение, особенно в таких чувствительных областях, как здравоохранение или безопасность, должно оставаться за людьми, считают специалисты. Опять же, Адриан-Виктор Вевера: «Мы не должны относиться к искусственному интеллекту ни как к абсолютному подарку, который принесет только благо, ни как к потенциальному врагу и осуждать его с самого начала. Я считаю, что первым и главным вопросом в отношении использования искусственного интеллекта должно быть то, что каждый из нас должен заглянуть в глубину своей души и подумать, какие правила должны быть введены в момент разработки и использования искусственного интеллекта. Это означает этический подход к использованию искусственного интеллекта, ограничения, которые ему следует установить, меры защиты. Всегда должен быть кнопка, с помощью которой можно остановить то, что может выйти из-под контроля. Подумайте о том, что, будучи инструментом, искусственный интеллект может быть использован как людьми, желающими совершить террористические акты, так и людьми, желающими манипулировать настроением в стране. Это инструмент. Нож можно использовать на кухне для приготовления пищи или на поле боя для убийства кого-то. Именно об этом я говорил, когда упомянул кнопку «стоп», средства защиты, средства безопасности, связанные с использованием и развитием искусственного интеллекта, и, конечно же, этическую сторону вопроса, которую, очевидно, невозможно навязать всем, кто имеет доступ, возможности и знания для разработки приложений искусственного интеллекта. Но на основе этического кодекса можно создать framework, можно создать рамки, в которых будет легче отслеживать уровень развития и, конечно же, результаты». Другой аспект касается ответственности, а именно, кто несет ответственность за решение, принятое алгоритмом, который ошибается? Программист? Компания? Пользователь? Или никто? В отличие от людей, алгоритмы не могут быть привлечены к моральной ответственности. У них нет сознания, намерения или эмпатии, они просто выполняют то, что от них требуется. И риски возрастают с все более широким использованием искусственного интеллекта. Согласно исследованиям, проведенным в 2024 году, через два года после запуска искусственного интеллекта ChatGPT им пользовались 4% населения мира. Что касается Румынии, то почти половина румын используют искусственный интеллект в своей повседневной деятельности, согласно исследованию, проведенному в 2025 году Reveal Marketing Research, компанией, занимающейся полным спектром услуг в области маркетинговых исследований.