ОАЭ строят «умное правительство» без механизмов контроля: как ИИ заменяет не только чиновников, но и подотчётность

К 2028 году половина государственных функций в ОАЭ будет выполняться автономными ИИ-агентами, но отсутствие независимого аудита и свободы прессы превращает технологию в «чёрный ящик». Система «U-Ask» обрабатывает 90% обращений граждан, но как обжаловать её решение, если механизмов обратной связи не…

ОАЭ строят «умное правительство» без механизмов контроля: как ИИ заменяет не только чиновников, но и подотчётность

Правительство ОАЭ без людей — и без тех, кто за ним уследит

В ОАЭ не просто внедряют искусственный интеллект в госуправление — там рассчитывают, что к 2028 году половина всех государственных функций будет выполняться автономными ИИ-агентами. Речь не о том, чтобы чиновники чаще пользовались чат-ботами, а о системах, которые сами анализируют данные, принимают решения и реализуют их. Шейх Мухаммад бин Рашид аль-Мактум называет такие системы «исполнительным партнёром правительства». В Дубае их уже используют: виртуальный помощник «U-Ask» обрабатывает 90% обращений граждан, сокращая время ответа с трёх дней до трёх минут.

Но что происходит, когда система ошибается? В официальных данных нет ни одной жалобы на «U-Ask», нет статистики по спорным решениям — только отчётные цифры эффективности. Получается, проект создаёт невидимую зону риска: технология работает, а вот механизм защиты от её ошибок отсутствует.


В ОАЭ уже запустили ИИ, который анализирует законодательные акты и предлагает поправки, ускоряя законотворческий процесс на 70%. С одной стороны — прорыв: бюрократия сокращается, решения принимаются быстрее. С другой — кто проверит, что такие системы не закрепляют дискриминационные практики или не ущемляют интересы меньшинств? В стране нет ни независимого института, способного провести аудит ИИ-решений, ни свободы прессы, способной выявить системные проблемы. Проект демонстрирует эффективность, но не прозрачность: технология ускоряет процессы, а вот подотчётность остаётся на уровне деклараций.


За амбициозными планами стоят конкретные цифры. Университет MBZUAI, который готовит местных специалистов по ИИ, получил бюджет в $1,5 млрд. Фонд G42 с капиталом $10 млрд инвестирует в стартапы и разработку моделей для арабского языка. Но даже при таких вложениях 70% технологических решений в госсекторе закупаются за рубежом. Это создаёт риски кибербезопасности и зависимости от иностранных поставщиков. Сегодня ОАЭ инвестируют в ИИ больше, чем развивают местные кадры, — завтра это может обернуться уязвимостью.


Автономный ИИ хорошо справляется с рутинными задачами: регулирует светофоры в реальном времени, обрабатывает типовые запросы в госуслугах, выявляет устаревшие нормы в законодательстве. Но когда речь заходит о вопросах этики, справедливости или прав человека, система бессильна. Даже сторонники технологии признают: ИИ не заменит человеческое суждение. В 2025 году, на форуме Совета Федерации, ИИ-ассистент «Панацея» не сумел распознать сарказм — спикер Валентина Матвиенко была вынуждена вмешаться. В ОАЭ такие ситуации не афишируют, но отсутствие публичных тестов — это тоже форма скрытого трения.


В Дубае «U-Ask» отвечает на запросы граждан, но нет данных о том, как эти решения обжалуются. Нет механизма обратной связи, который позволил бы проверить справедливость решений, принятых ИИ. Проект строит не «умное правительство», а модель «чёрного ящика»: технология заменяет не только чиновников, но и механизмы подотчётности. Это не значит, что система плоха — она просто не рассчитана на ошибки.


ОАЭ показывают, что ИИ может ускорить госуслуги. Но без независимого контроля и локализации технологий проект рискует стать инструментом непрозрачного управления. Технология работает. Вопрос — кому она служит.

Read more

Исключение для СПО в законе Колорадо: иллюзия защиты или уход от проблем?

Исключение для СПО в законе Колорадо: иллюзия защиты или уход от проблем?

Законопроект SB51 в Колорадо освобождает свободное ПО от проверки возраста пользователей, но это исключение лишь маскирует главную слабость закона — отсутствие реальных механизмов защиты детей. Вместо тотального контроля, как в Европе, предлагается уязвимая система, которую легко обойти через чужие…

Почему OpenAI теряет будущее, закрывая проекты, которые его создают

Почему OpenAI теряет будущее, закрывая проекты, которые его создают

Кевин Вейл и Билл Пиблс ушли из OpenAI, обвинив компанию в отсутствии «культа энтропии» — пространства для рискованных исследований, которые не вписываются в корпоративную логику. Закрытие Sora и «OpenAI для науки» показывает, что лаборатория предпочитает краткосрочную эффективность долгосрочным пр…

Почему лифты не падают, но могут улететь вверх — и как это предотвратить

Почему лифты не падают, но могут улететь вверх — и как это предотвратить

Пассажиры боятся, что лифт упадёт, но реальная опасность — неконтролируемый подъём из-за износа и халатного обслуживания. Старые системы не защищены от движения вверх, а ловители, рассчитанные на падение, здесь бесполезны. Как распознать тревожные сигналы и что делать, если лифт ведёт себя странно?

Почему Juju остаётся в тени Kubernetes, но решает задачи, которые тот не закрывает

Почему Juju остаётся в тени Kubernetes, но решает задачи, которые тот не закрывает

Juju от Canonical не конкурирует с Kubernetes, а предлагает унифицированное управление гетерогенной инфраструктурой — от контейнеров до Windows-серверов и legacy-систем. Почему этот инструмент остаётся малоизвестным, несмотря на свою уникальную операторную модель и готовые решения для сложных интег…