Главные новости

Почему Apple и технологические гиганты создают ограниченных агентов искусственного интеллекта: объяснение стратегии.

2026-04-12 от AICC
Разработка ИИ-помощника

Искусственный интеллект следующего поколения разрабатывается в рамках экосистемы Apple и ведущими производителями чипов, такими как Qualcomm. Однако, согласно предварительным отчетам, эти системы проектируются с учетом потребностей пользователей. встроенные ограничения и средства контроля безопасности для защиты пользователей.

В соответствии с Путеводитель ТомаРанние версии этих ИИ-помощников демонстрируют возможности, включая навигацию по приложениям, выполнение бронирований и управление задачами в различных сервисах. В ходе закрытого бета-тестирования система-помощник успешно выполнила такие задачи, как бронирование услуг и размещение контента в приложениях. В одном из тестовых сценариев система прошла через рабочий процесс приложения и достигла экрана оплаты раньше, чем ожидалось. запрос подтверждения пользователя.

🔐 Ключевая функция безопасности: В настоящее время разрабатываются агенты искусственного интеллекта с обязательными контрольными точками подтверждения. Для выполнения конфиденциальных действий, особенно связанных с платежами или изменением данных учетной записи, требуется явное подтверждение пользователя.

Архитектура с участием человека

Он модель "человек в процессе" Это позволяет системе подготавливать действия, оставляя окончательное подтверждение за пользователем. Исследования, связанные с разработкой искусственного интеллекта компанией Apple, изучали методы, обеспечивающие паузу в работе системы перед выполнением действий, которые пользователи явно не разрешили.

Этот подход аналогичен существующим протоколам безопасности в банковских приложениях, которые уже требуют подтверждения финансовых переводов. Тот же принцип теперь распространяется и на другие области. Действия, управляемые искусственным интеллектом, в различных сервисах и платформах..

Ограничение доступа и механизмы контроля

Критически важный уровень контроля включает в себя ограничение прав доступа к ИИ. Вместо предоставления системам неограниченного доступа к приложениям и данным организации устанавливают четкие границы, в том числе:

  • Определение того, с какими приложениями может взаимодействовать ИИ.
  • Указание моментов, когда могут быть запущены действия.
  • Ограничение возможностей автономного принятия решений

На практике это означает, что системы искусственного интеллекта могут быть способны составлять планы покупок или подготавливать бронирования, но... Завершение сделок невозможно без явного одобрения.Система не может свободно работать со всеми сервисами без специального разрешения.

🔒 Приоритет конфиденциальности: Согласно Tom's Guide, приоритет отдается обработке данных на самом устройстве для защиты конфиденциальности. Хранение данных на устройстве исключает необходимость передачи конфиденциальной информации на внешние серверы.

Интеграция системы безопасности платежей

В функциях, связанных с платежами, ожидается интеграция систем искусственного интеллекта с партнерами, которые придерживаются строгих протоколов безопасности. Согласно сообщениям, Сервисы платежных систем интегрируются для обеспечения безопасной аутентификации. до завершения транзакции, хотя эти меры защиты все еще находятся в стадии активной разработки. Существующие системы функционируют как дополнительный уровень контроля, способный устанавливать лимиты транзакций или требовать дополнительной проверки.

Управление ИИ, ориентированное на потребителя

Хотя большая часть дискуссий об управлении ИИ сосредоточена на корпоративных приложениях, включая кибербезопасность и крупномасштабную автоматизацию, потребительский сектор представляет собой особые проблемы. Компаниям необходимо разработать механизмы контроля, которые эффективно работают для обычных пользователей, включая:

  • Понятные и интуитивно понятные процессы утверждения
  • Встроенная защита конфиденциальности
  • Прозрачные уведомления о действиях

Сбалансированная автономия: управление рисками

По мере того, как системы искусственного интеллекта приобретают все большие возможности для самостоятельного выполнения действий, связанные с этим риски возрастают пропорционально.Ошибки могут привести к финансовым потерям или утечке данных, поэтому надежные меры защиты крайне важны.

Внедряя механизмы контроля на нескольких этапах взаимодействия, включая этапы утверждения пользователями и ограничения инфраструктуры, компании активно работают над снижением этих рисков.

📊 Направление развития отрасли: Вероятно, именно такой подход определит дальнейшее развитие агентного ИИ в ближайшем будущем. Вместо стремления к полной независимости компании, похоже, сосредоточены на создании контролируемых сред, где риски могут эффективно управляться.

Фотография предоставлена: Джунсон Ли

См. также: Проблемы управления компанией Agentic AI в соответствии с Законом ЕС об искусственном интеллекте 2026 года


Хотите узнать больше об искусственном интеллекте и больших данных от лидеров отрасли? Посмотрите! Выставка искусственного интеллекта и больших данных Мероприятие пройдет в Амстердаме, Калифорнии и Лондоне. Это масштабное событие является частью TechEx и проводится одновременно с другими ведущими технологическими мероприятиями. [Кликните] здесь для получения дополнительной информации.

AI News работает на базе TechForge MediaОзнакомьтесь с другими предстоящими мероприятиями и вебинарами, посвященными корпоративным технологиям. здесь.

Более 300 моделей ИИ для
OpenClaw и агенты искусственного интеллекта

Сэкономьте 20% на расходах