The Intelligent OS: Making AI agents more helpful for Android apps
핵심 포인트
- 1AI 에이전트가 앱 내 작업을 직접 처리하는 사용자 기대치 변화에 따라, Android는 앱이 데이터와 기능을 노출하는 'AppFunctions'와 AI가 일반 작업을 실행하는 'UI automation' 두 가지 새로운 개발자 기능을 도입합니다.
- 2AppFunctions는 개발자가 앱의 기능을 Gemini 같은 AI 에이전트에게 직접 노출하여, 사용자가 앱을 열지 않고도 "Show me pictures of my cat from Samsung Gallery"와 같이 자연어로 작업을 완료할 수 있도록 돕습니다.
- 3이와 함께, 앱 개발자의 코드 변경 없이 AI가 복잡한 작업을 자동화할 수 있도록 지원하는 지능형 UI automation 프레임워크가 초기 미리보기로 제공되며, 사용자 투명성과 제어 기능이 내장되어 있습니다.
본 게시글은 2026년 2월 25일에 게시된 Android 개발자 블로그 글로, 사용자들이 앱을 직접 여는 대신 AI 에이전트를 통해 작업을 수행하는 새로운 상호작용 모델에 맞춰 앱 생태계를 발전시키기 위한 두 가지 핵심 개발자 기능을 소개한다.
첫 번째는 AppFunctions이다. 이는 앱이 AI 에이전트 및 어시스턴트(예: Google Gemini)에 데이터와 기능을 직접 노출할 수 있도록 설계된 Jetpack 라이브러리 및 플랫폼 API이다. 개발자는 self-describing functions를 생성하여 AI 에이전트가 natural language를 통해 앱의 기능을 검색하고 실행할 수 있게 한다. 이 기능은 백엔드 기능이 MCP cloud servers를 통해 선언되는 방식과 유사하지만, WebMCP와 같이 서버가 아닌 장치에서 로컬로 기능을 실행하는 on-device solution이라는 점이 특징이다. Samsung Galaxy S26 시리즈의 Samsung Gallery와 Gemini 통합이 대표적인 예시로, 사용자가 "Show me pictures of my cat from Samsung Gallery"라고 요청하면 Gemini가 해당 AppFunction을 실행하여 사진을 Gemini 앱 내에 직접 표시한다. 이 경험은 multimodal하며, Calendar, Notes, Tasks 등 다양한 앱 카테고리에서 활용되어 여러 제조사의 기기에서 작업을 자동화할 수 있다. AppFunctions는 앱 개발자에게 구조화된 프레임워크와 AI 에이전트와의 통신에 대한 더 많은 제어권을 제공한다.
두 번째는 지능형 UI 자동화 (intelligent UI automation) 프레임워크이다. 이는 아직 전용 AppFunctions 통합이 없는 경우에도 AI 에이전트가 사용자의 설치된 앱에서 일반적인 작업을 지능적으로 실행할 수 있도록 하는 플랫폼 수준의 솔루션이다. 이 프레임워크는 플랫폼이 대부분의 작업을 처리하므로 개발자는 추가적인 코드 작성 없이도 AI 에이전트의 접근성을 확보할 수 있다. 사용자 투명성 및 제어 기능이 내장되어 있으며, 사용자는 알림이나 live view를 통해 작업 진행 상황을 모니터링하고, 언제든지 수동 제어로 전환할 수 있다. 민감한 작업(예: 구매)에 대해서는 완료 전에 사용자에게 알림을 제공한다. 이 기능은 Galaxy S26 시리즈 및 일부 Pixel 10 기기에서 초기 프리뷰로 제공되며, Gemini 앱의 베타 기능으로 Food delivery, Grocery, Rideshare 카테고리의 일부 앱에서 미국과 한국에서 시작될 예정이다. 복잡한 피자 주문, 다중 경유 라이드셰어, 이전 식료품 재주문 등 사용자가 앱 내 기존 컨텍스트를 활용하여 복잡한 작업을 AI 에이전트를 통해 완료할 수 있도록 돕는다.
이러한 기능들은 프라이버시와 보안을 핵심 원칙으로 설계되었다. Android 17에서는 이러한 기능들이 더 많은 사용자, 개발자, 기기 제조사에게 확장될 예정이며, Google은 고품질 사용자 경험을 목표로 소수의 앱 개발자들과 협력하고 있다.