Google I/O 2025: 혁신적인 AI 발표와 산업적 함의 분석

요약

Google I/O 2025는 Google의 ‘AI 우선’ 전략이 결정적으로 가속화되었음을 보여주며, 핵심 제품에 인공지능을 깊이 통합하고 획기적인 에이전트 기능을 도입했습니다.

2025년 5월 20일부터 21일까지 개최된 Google I/O 2025는 Google의 ‘AI 우선’ 패러다임을 명확히 선언하는 자리였습니다. 검색부터 하드웨어, 개발자 도구에 이르기까지 Google 생태계 전반에 걸쳐 인공지능이 심층적으로 통합되었음을 보여주었습니다.1 행사의 핵심 주제는 Google의 고급 AI 모델인 Gemini의 광범위한 배포였습니다. Gemini는 고도로 대화적이고 다중 모드적이며 ‘에이전트’적인 경험을 가능하게 하여 사용자가 기술과 상호 작용하는 방식을 근본적으로 변화시킬 것으로 예상됩니다.1

주요 발표 내용에는 Google 검색의 ‘AI 모드’ 광범위한 출시, Android XR 안경을 통한 스마트 웨어러블 시장 재진입, 그리고 Project Astra 및 Project Mariner와 같은 정교한 AI 에이전트의 도입이 포함됩니다. 이들 에이전트는 사용자 대신 복잡한 작업을 사전에 수행할 수 있습니다.1 이러한 혁신은 기존 인터넷 트래픽 패턴을 교란하고 콘텐츠 게시자에게 도전하며 경쟁 환경을 재편하는 동시에 개발자 혁신과 사용자 접근성을 위한 새로운 길을 열어줄 것입니다.3

Google의 전략적 목표는 명확합니다. 직접적이고 포괄적인 AI 생성 답변을 제공하여 사용자를 자사 플랫폼 내에 유지하고, 이를 통해 정보에 대한 주요 관문으로서의 입지를 공고히 하는 것입니다.3 AI Ultra와 같은 새로운 구독 계층의 도입은 고급 AI 기능의 수익화를 향한 이러한 전략적 전환을 더욱 강조합니다.3

서론: Google I/O 2025 – AI 통합의 새로운 시대

Google I/O는 Google이 매년 캘리포니아주 마운틴뷰에서 개최하는 개발자 컨퍼런스입니다. 이 행사는 회사가 개발자 커뮤니티와 더 넓은 기술 산업에 주요 제품 업데이트, 신기술, 전략적 방향을 공개하는 주요 플랫폼 역할을 합니다.4 2025년 행사는 5월 20일부터 21일까지 온라인으로 모든 사람에게 공개되었으며, 라이브 스트리밍 키노트와 세션이 소규모 현장 청중과 함께 진행되어 발표 내용의 전 세계적인 도달 범위를 강조했습니다.1

Google CEO 순다르 피차이는 “수십 년간의 연구가 전 세계 사람들에게 현실이 되는 AI 플랫폼 전환의 새로운 단계에 진입했다”고 명확히 밝혔습니다.3 이 발언은 단순한 제품 업데이트를 넘어 Google의 핵심 사명과 기술 기반의 근본적인 변화를 시사합니다. 컨퍼런스는 Google의 “AI에 대한 전폭적인 접근 방식”을 강조했으며, 이는 AI가 단순한 추가 기능이 아니라 미래의 제품과 서비스가 구축될 중심 축임을 나타냅니다.3 이러한 광범위한 통합은 사용자가 기술과 상호 작용하고 정보에 접근하는 방식을 재정의하는 것을 목표로 합니다.

개발자 중심 행사인 Google I/O 2025에서 ‘AI 플랫폼 전환’과 ‘전폭적인 접근 방식’과 같은 용어를 일관되고 강력하게 사용한 것은 의도적인 전략적 선언입니다.3 이는 단순히 신제품을 선보이는 것을 넘어 전체 개발자 생태계와 시장의 방향을 설정하는 것입니다. 이러한 강력하고 반복적인 메시지는 개발자들이 Google의 AI 인프라를 기반으로 구축하도록 유도하는 초대이자 지침입니다. 이는 Google의 AI 모델과 API를 사실상의 산업 표준으로 확립하여 Google의 지배력을 강화하는 생태계를 조성하는 것을 목표로 합니다. 이는 개발자들이 경쟁사의 AI 도구보다 Google의 AI 도구를 선택하도록 유도하여 다양한 애플리케이션과 산업 전반에 걸쳐 Google AI의 채택과 통합을 가속화하려는 경쟁 전략입니다.

Google은 이전에 ‘모바일 우선’ 전략을 통해 제품과 기술 산업을 재편했습니다. 현재 ‘AI 우선’에 대한 강조는 그와 유사하거나 더 큰 규모의 전환을 시사합니다. ‘모바일 우선’이 컴퓨팅 환경을 변화시켜 모바일 기기를 디지털 상호 작용의 중심으로 만들었던 것처럼, ‘AI 우선’은 더욱 심오한 패러다임 전환을 의미합니다. 이는 화면 기반 상호 작용을 넘어 더욱 직관적이고 대화적이며 에이전트적인 인터페이스로 나아가는 것을 의미합니다. 이러한 전략적 전환은 사용자가 정보와 상호 작용하는 방식, 기업이 고객과 소통하는 방식, 소프트웨어가 구축되고 소비되는 방식을 재정의할 것입니다. 이는 AI를 모든 미래 컴퓨팅의 기반 계층으로 자리매김하여, 지능형 에이전트가 사용자 대신 복잡한 작업을 수행하는 새로운 시대를 열고 디지털 참여의 본질을 근본적으로 변화시킬 잠재력을 가지고 있습니다.

Gemini의 중심성: AI의 도달 범위 확장

Gemini는 Google I/O 2025의 ‘주역’으로 확실히 자리매김했으며, Google의 AI 이니셔티브 전반에 걸쳐 핵심적인 역할을 강조했습니다.6

Gemini의 진화와 핵심 역량

Gemini 2.5 Pro는 Google의 “가장 강력한 모델”로 공개되었으며, 고급 추론 기능을 선보였습니다. 간단한 스케치를 완전한 기능의 애플리케이션으로 직접 변환하는 인상적인 시연은 AI의 창의적이고 기능적인 통합 능력의 도약을 보여주었습니다.5 Gemini 2.5 Flash는 더 저렴하고 효율적인 버전으로 소개되어, 더 넓은 접근성과 다양한 애플리케이션에 걸친 배포를 위해 설계되었으며, AI 기능 확장에 대한 Google의 의지를 강조합니다.6

Gemini API의 중요한 업데이트는 정교한 ‘에이전트 경험’을 가능하게 하기 위해 발표되었습니다. 여기에는 링크만 제공하면 모델이 웹 페이지에서 정보를 추출하고 활용할 수 있게 하는 ‘URL Context’와 같은 새로운 도구가 포함되어 AI의 상황 이해 능력을 크게 향상시킵니다.5 또한, Gemini SDK는 이제 모델 컨텍스트 프로토콜(MCP) 정의를 지원하여 오픈 소스 도구의 통합을 간소화하고 AI 애플리케이션을 위한 더욱 협력적이고 효율적인 개발 환경을 조성할 것입니다.5

Live API의 Gemini 2.5 Flash Native Audio는 대화형 AI의 획기적인 발전으로, 에이전트 애플리케이션이 24개 언어로 ‘듣고 말할’ 수 있게 합니다. 개발자는 모델의 음성, 톤, 속도 및 전반적인 스타일을 완전히 제어할 수 있습니다. 이 기능은 대화 흐름을 더 잘 이해하고 불필요한 소리나 음성을 효과적으로 무시하여 더 부드럽고 자연스러운 상호 작용을 유도하도록 설계되었습니다.5

Google 검색의 Gemini: 정보 접근 방식 재정의

미국에서는 새로운 ‘AI 모드’ 옵션이 광범위하게 출시되어 Google의 검색 엔진을 사실상 모든 주제에 대해 질문에 답할 수 있는 고도로 지식 있는 전문가와 상호 작용하는 것과 유사한 대화형 경험으로 근본적으로 변화시켰습니다.1 AI 모드는 ‘쿼리 팬아웃 기술’을 사용하여 복잡하고 긴 쿼리를 여러 부분으로 분해하고 각 구성 요소를 처리한 다음 정보를 종합하여 포괄적인 응답을 제공합니다.6 Google은 또한 AI 모드가 ‘작업을 확인’한다고 밝혔지만, 이 검증 과정의 구체적인 내용은 자세히 설명되지 않았습니다.6

AI 모드의 향후 개선 사항에는 사용자의 과거 검색 및 Gmail과 같은 다른 Google 제품의 상황 정보를 기반으로 AI가 제안을 할 수 있도록 하는 개인 컨텍스트(여름 후반에 출시 예정, 옵트인 기능으로 제공)가 포함됩니다.3 딥 서치는 여러 웹사이트를 검색하여 복잡한 쿼리를 더 깊이 탐색할 수 있도록 도입될 예정입니다.3 새로운 데이터 시각화 기능은 검색 결과를 시각적인 그래프로 제시하여 데이터가 풍부한 쿼리에 대한 이해를 높일 것입니다.3 결정적으로, Google은 최신 AI 모델인 Gemini 2.5를 핵심 검색 알고리즘에 직접 통합하고 있으며, 이는 표면적인 오버레이가 아닌 깊고 아키텍처적인 변화를 의미합니다.1 콘서트 티켓 자동 구매 및 라이브 비디오 피드를 통한 검색 수행과 같은 추가 AI 기능도 테스트 중이며, 이는 검색 내에서 거래 및 실제 세계 상호 작용 기능으로의 전환을 나타냅니다.3

<br>

표 1: 주요 AI 검색 기능 및 사용자 이점

기능설명주요 이점가용성/상태
AI 모드Google 검색을 대화형 경험으로 전환하여 복잡한 쿼리에 대한 포괄적인 답변을 제공합니다. ‘쿼리 팬아웃 기술’을 사용합니다.전문가와 대화하는 듯한 직관적인 정보 접근, 복잡한 질문에 대한 종합적인 답변.미국에서 광범위하게 출시됨 1
개인 컨텍스트사용자의 과거 검색 및 Gmail과 같은 다른 Google 제품의 데이터를 기반으로 개인화된 제안을 제공합니다.개인화된 검색 결과 및 AI 상호 작용, 더 관련성 높은 정보.여름 후반에 출시 예정 (옵트인 기능) 3
딥 서치여러 웹사이트를 통해 복잡한 쿼리를 더 심층적으로 탐색할 수 있습니다.특정 주제에 대한 심층적인 정보 탐색, 포괄적인 지식 습득.향후 테스트 예정 3
데이터 시각화스포츠 및 금융 데이터와 같은 검색 결과를 시각적인 그래프로 제시합니다.데이터가 풍부한 정보의 쉬운 이해, 복잡한 데이터의 시각적 분석.향후 테스트 예정 3
라이브 비디오 검색라이브 비디오 피드를 통해 검색을 수행할 수 있습니다.실시간으로 주변 환경에 대한 정보 획득, 물리적 세계와 디지털 세계의 경계 허물기.향후 테스트 예정 3
자동화된 작업콘서트 티켓 자동 구매와 같은 작업을 수행할 수 있습니다.온라인 활동 간소화, AI를 통한 직접적인 거래 기능.향후 테스트 예정 3

<br>

개발 분야의 Gemini: 창작자와 개발자 역량 강화

Android Studio는 이제 Gemini와 깊이 통합되어 Gemini 2.5 Pro에 대한 접근을 포함하며, ‘Android 개발을 크게 가속화’하고 앱 생성의 모든 단계에서 개발자 생산성을 향상시키도록 설계되었습니다.5 Android Studio용 Journeys는 에이전트 AI를 도입하여 앱 테스트를 간소화합니다. 개발자는 원하는 사용자 여정 작업과 어설션을 자연어로 설명할 수 있으며, Gemini는 다양한 기기에서 테스트를 자율적으로 수행하여 수동 테스트 시간을 크게 줄입니다.5

앱 품질 통찰력 패널은 이제 Gemini를 통한 충돌 수정 제안 기능을 포함하여, 충돌에 대한 포괄적인 분석, 설명, 그리고 경우에 따라 소스 코드 수정까지 제공하여 디버깅 프로세스를 가속화합니다.13 Studio Labs의 AI 기능(안정 버전에서 사용 가능)은 Compose 미리보기 생성, 자연어 명령을 통한 UI 변환, 상황별 프롬프트를 위한 이미지 첨부, 빠른 파일 참조를 위한 채팅 상호 작용의 ‘@파일 컨텍스트’를 포함하여 실험적인 AI 기능에 대한 조기 접근을 제공합니다.13 프롬프트 라이브러리의 규칙은 개발자가 선호하는 코딩 스타일과 출력 형식을 정의할 수 있게 하여 Gemini의 지원이 프로젝트 표준에 부합하도록 보장합니다.13

기업용 Android Studio의 Gemini는 Google Cloud가 지원하는 엔터프라이즈급 개인 정보 보호 및 보안 기능을 제공하여, 조직이 대규모로 AI를 배포하면서 데이터를 보호할 수 있도록 지원합니다.13 버전 업그레이드 에이전트는 종속성 업그레이드를 자동화하여 개발자의 시간과 노력을 절약합니다.5 Android Studio용 에이전트 모드(출시 예정)는 Gemini를 사용하는 새로운 자율 AI 기능으로, 개발자 대신 여러 도구를 호출하여 복잡하고 다단계적인 개발 작업을 처리하도록 설계되었습니다.13

ML Kit GenAI API는 Gemini Nano를 활용하여 일반적인 온디바이스 작업을 위한 지능적이고 개인화된 에이전트 기능을 앱에 추가하기 위해 발표되었습니다. ‘Androidify’ 샘플 앱은 사용자가 자신의 셀카를 사용하여 Android 로봇을 만들 수 있는 기능을 선보였습니다.5 Google은 Google 개발자 프로그램에 대한 AI 혜택을 확장하여 Gemini Code Assist Standard, 새로운 생성형 AI 개발자 연간 크레딧, 그리고 Google One AI Premium 3개월 무료 이용을 포함시켰으며, 이는 고급 AI 도구에 대한 접근성을 높입니다.5 공개 베타 버전인 Jules는 비동기 코딩 에이전트로, 개발자가 코드베이스 작업을 처리하고 파일을 자율적으로 수정할 수 있도록 지원합니다.5

일상생활의 Gemini: 다중 모드 및 에이전트 상호 작용

Gemini Live는 사용자가 모바일 기기의 카메라 및 오디오 입력을 사용하여 주변 환경과 상호 작용할 수 있게 하는 획기적인 AI 비서 기능입니다. 사용자는 카메라로 촬영하는 것에 대해 Gemini Live에 질문할 수 있으며, AI 비서는 해당 시각 정보를 기반으로 답변을 제공합니다. 이 기능은 Gemini 사용자에게 즉시 출시되고 있습니다.6

Google Home API와의 깊은 통합은 Gemini의 지능을 스마트 홈 기기에 가져옵니다. 여기에는 라이브 스트리밍, 지능형 알림, Gemini 기반 이벤트 설명이 포함된 카메라 기록, 양방향 통화와 같은 고급 카메라 기능이 포함됩니다. 또한, 사용자가 자연어(‘만들기 도와줘’)를 사용하여 루틴을 만들 수 있게 하고, 날짜 및 날씨와 같은 상황에 기반한 자동화 제안을 제공하여 자동화를 간소화합니다. 나아가, 사용자가 Gemini 앱에서 직접 기기를 제어하고 문의할 수 있게 하고, Pixel 기기의 홈 상태 위젯을 통해 실시간 홈 요약을 제공함으로써 제어 기능을 확장합니다.15

개인화된 스마트 답장은 Google Workspace(특히 Gmail)에 Gemini를 통합하여, 문서 및 이메일의 개인 컨텍스트를 사용하여 사용자의 톤과 스타일에 맞는 자동 답장을 생성하며, 올 여름에 출시될 예정입니다.6

AI가 단순히 질문에 답하거나 명시적인 프롬프트에 따라 콘텐츠를 생성하는 반응적인 도구를 넘어섰다는 점은 주목할 만합니다. Project Astra, Project Mariner, Jules, Android Studio의 에이전트 모드, Gemini Live 등 여러 제품 발표에서 ‘에이전트 경험’과 ‘AI 에이전트’에 대한 반복적인 강조는 중요한 주제입니다.5 이는 AI가 의도를 사전에 이해하고, 다단계 작업을 계획하고 실행하며, 심지어 과거 상호 작용에서 학습할 수 있음을 의미하며, 종종 최소한의 인간 개입으로 이루어집니다. 이는 인간-컴퓨터 상호 작용 모델을 근본적으로 변화시켜, 직접적인 명령-응답 방식에서 위임 방식으로 전환합니다. 사용자는 점점 더 복잡한 인지적 및 운영적 작업을 AI에 위임하게 될 것이며, 이는 전례 없는 수준의 자동화와 개인 생산성을 약속하며 잠재적으로 다양한 산업의 역할을 재정의할 수 있습니다.

Gemini 2.5가 검색 알고리즘에 통합되고 3, Gemini가 ‘Android Studio에 깊이 통합’되고 13, Google Home API가 명시적으로 ‘Gemini 기반’으로 설명되는 점은 15 AI가 단순히 추가 기능이 아니라 Google의 핵심 제품 및 플랫폼의 근본적인 아키텍처에 통합되고 있음을 보여줍니다. 이는 기존 애플리케이션에 ‘AI 버튼’을 추가하는 것과는 다릅니다. 이는 기본 시스템 자체가 AI 기능을 기본적으로 활용하도록 설계되었음을 의미합니다. 개발자에게는 AI 기능이 개발 도구에 본질적으로 접근 가능하고 통합되어 AI 기반 애플리케이션 생성을 크게 가속화합니다. 사용자에게는 AI가 일상적인 디지털 상호 작용을 원활하고 종종 보이지 않게 향상시켜 경험을 더욱 지능적이고 직관적으로 만듭니다. 이러한 깊은 인프라 통합은 Google에게 더 강력한 경쟁 우위를 제공하여 경쟁사들이 AI 생태계의 폭과 깊이를 복제하기 어렵게 만듭니다.

여러 발표에서 AI가 다양한 양식(시각, 청각, 텍스트)을 통해 정보를 처리하고 생성하는 능력을 강조합니다. Gemini Live는 카메라 및 오디오 입력을 사용하고 6, Android XR 안경은 ‘보고 들으며’ 9, Gemini 2.5 Flash Native Audio는 앱이 ‘듣고 말할’ 수 있게 하며 5, Project Astra는 ‘다중 모드 입력’을 통해 ‘주변 세계’를 이해합니다.7 이는 AI가 인간의 감각 입력 및 출력을 모방하여 상호 작용할 수 있음을 보여줍니다. 이를 통해 AI는 텍스트 전용 입력보다 훨씬 더 풍부하고 미묘한 방식으로 상황을 이해할 수 있습니다. AI가 실제 세계를 인지하고 그에 따라 반응할 수 있도록 합니다. 이는 진정으로 ‘보편적’이고 상황을 인식하는 AI 비서를 향한 중요한 단계입니다. 이는 인간-컴퓨터 상호 작용을 기존의 키보드와 화면을 넘어 더욱 자연스럽고 직관적인 의사소통 형태로 전환합니다. 에이전트 AI의 경우, 다중 모드 기능은 동적인 실제 환경에서 효과적으로 작동하는 데 필수적입니다(예: Project Astra가 시각적으로 부품을 식별하고 음성 지침을 이해하여 자전거 수리를 돕는 경우). 이는 기술이 인간의 의사소통 방식에 적응하는 미래를 예고하며, 그 반대가 아님을 시사합니다.

월 249.99달러의 Google AI Ultra 요금제와 월 19.99달러 요금제의 AI Pro로의 명확한 전환은 3 프리미엄 AI 기능에 대한 계층별 수익화 전략을 명확히 제시합니다. 이는 Google이 AI 투자로부터 상당한 직접 수익을 창출하려는 전략적 전환을 나타내며, 기존의 광고 중심 비즈니스 모델을 넘어섭니다. Google은 AI 제공을 세분화하고 있으며, 기본 기능은 무료로 유지되거나 통합될 가능성이 높지만, Project Mariner의 자율 웹 작업, Deep Think 모드, 고급 생성형 AI 도구에 대한 접근과 같은 최첨단 ‘에이전트’ 기능은 전문가, 기업 및 고용량 사용자를 위한 프리미엄 서비스로 포지셔닝됩니다. 이는 가장 강력한 AI 도구에 대한 접근이 유료 서비스가 될 미래를 시사하며, 프리미엄 접근을 감당할 수 있는 사람들과 그렇지 못한 사람들 사이에 AI 기능의 디지털 격차를 초래할 수 있습니다.

소프트웨어를 넘어: 하드웨어 및 생성형 AI의 돌파구

Android XR 안경: Google의 스마트 웨어러블 시장 재진입

Google은 AI를 활용한 새로운 Android XR 기반 안경으로 스마트 안경 시장에 재진입한다고 발표했습니다.3 이는 소프트웨어 발전과 함께 중요한 하드웨어 전략을 의미합니다. 이 안경에는 핸즈프리 카메라와 음성 기반 AI 비서가 포함되어 환경과 원활하게 상호 작용할 수 있도록 설계되었습니다.3

결정적으로, Gemini와 페어링되면 안경은 사용자가 하는 일을 ‘보고 들을’ 수 있어, 상황을 이해하고 중요한 정보를 기억하며 필요할 때 정확하게 관련 세부 정보를 전달하여 물리적 세계와 디지털 세계의 경계를 모호하게 만듭니다.9 선택 사항인 렌즈 내 디스플레이는 사용자에게 유용한 정보를 비공개로 제공할 것입니다.9 또한 안경은 사용자의 휴대폰과 연결되어 핸즈프리로 앱에 접근할 수 있도록 합니다.9

과거의 도전을 해결하기 위해 Google은 Gentle Monster 및 Warby Parker와 같은 패션 브랜드와 디자인 파트너십을 맺어, 사용자들이 ‘하루 종일 착용하고 싶어할’ 세련된 안경을 만드는 것을 목표로 합니다. 이는 이전 시도에서 직면했던 미적 및 사회적 수용 문제에 대한 직접적인 대응입니다.3 시제품은 이미 ‘신뢰할 수 있는 테스터’에 의해 사용되고 있으며, 개발자들은 올해 말부터 이 안경용 개발을 시작할 수 있어, 곧 더 광범위한 출시가 있을 것임을 시사합니다.6 이 새로운 안경은 Facebook 모회사인 Meta Platforms와 Ray-Ban의 기존 유사 제품과 직접 경쟁할 것입니다.3

이 재진입은 ‘Google Glass’가 출시된 지 13년 만에 이루어졌습니다. Google Glass는 주로 개인 정보 보호 문제로 인한 대중의 반발로 인해 결국 폐기된 제품입니다.3 디자인과 통합된 상황 인식 AI에 대한 새로운 초점은 Google이 이전 경험에서 교훈을 얻었으며, 더 통합되고 사회적으로 수용 가능한 사용자 경험을 목표로 하고 있음을 시사합니다. 이는 단순한 새 기기 출시를 넘어선 전략적 움직임으로, 새로운 보편적인 AI 인터페이스를 구축하려는 것입니다. AI를 세련된 웨어러블을 통해 일상생활에 녹아드는 주변적이고 항상 켜져 있는 비서로 만듦으로써, Google은 기존의 화면 기반 인터페이스를 넘어 사용자의 디지털 세계와의 상호 작용에서 ‘눈과 귀’를 장악하는 것을 목표로 합니다. 이는 스마트 안경 분야에서 Meta의 유사한 노력과 직접적으로 경쟁하며, 차세대 개인 컴퓨팅 인터페이스를 정의하기 위한 경쟁을 나타냅니다.

콘텐츠 생성을 위한 생성형 AI

Google의 최신 이미지 생성 모델인 Imagen 4는 ‘더 풍부한 디테일과 더 나은 시각 효과’를 약속하며 발표되었습니다. 중요한 발전은 그래픽 내에서 텍스트와 타이포그래피를 생성하는 능력이 ‘훨씬 더 좋아졌다’는 점인데, 이는 이전 AI 모델들이 역사적으로 어려움을 겪었던 분야입니다.6 이러한 개선은 상업적 및 전문적 애플리케이션에 매우 중요합니다.

새로운 비디오 생성 모델인 Veo 3Flow가 소개되었습니다. Google은 Veo 3가 장면 생성에서 물리적 이해가 더 강하고, 동반되는 음향 효과, 배경 소음 및 대화를 생성할 수 있어 AI 생성 비디오의 사실성을 더욱 높인다고 주장합니다.6 새로운 생성형 음악 모델인 Lyria 2도 공개되어 Google의 생성형 역량이 오디오 영역으로 확장되었습니다.6 공동 창작 플랫폼인 Gemini Canvas도 데뷔하여 AI 기반의 새로운 협업 창작 워크플로우를 예고합니다.6

수화 이해 모델인 SignGemma는 올해 말 Gemma 제품군에 합류할 예정입니다. 이는 ‘현재까지 수화를 음성 언어 텍스트로 번역하는 가장 유능한 모델'(특히 미국 수화를 영어로)로 설명되며, 청각 장애인/난청 사용자가 기술에 접근할 수 있는 새로운 방법을 가능하게 하고 더 큰 포괄성을 촉진할 것을 약속합니다.5 MedGemma는 Gemma 3의 변형으로, 다중 모드 의료 텍스트 및 이미지 이해를 위해 특별히 설계된 오픈 모델로 소개되었습니다. 작은 크기와 개방형 특성 덕분에 개발자가 자체 의료 기반 AI 애플리케이션을 미세 조정하고 구축하기 위한 효율적이고 유연한 출발점이 되어 이 중요한 분야의 혁신을 가속화합니다.5 Gemma 3n은 2GB RAM만으로도 실행할 수 있는 더 작고 효율적인 AI 모델로 소개되었습니다. 이 모델은 Gemini Nano의 차세대 버전을 구동할 새로운 고급 모바일 우선 아키텍처를 기반으로 구축되었으며, 휴대용 기기에서 탁월한 AI 성능을 위해 설계되었습니다.5

Imagen 4의 개선된 텍스트 생성 능력 6은 이전 생성 모델의 주요 약점을 해결합니다. SignGemma 5와 MedGemma 5와 같은 전문화된 모델의 도입은 일반적인 콘텐츠 생성을 넘어 고영향의 실용적이고 포괄적인 애플리케이션으로의 전략적 전환을 나타냅니다. 초기 생성형 AI는 인상적이지만 종종 결함이 있는 결과물(예: 이미지 속 텍스트)에 중점을 두었습니다. Imagen 4의 개선은 기술의 성숙을 의미하며, 이를 상업적으로 더 실용적으로 만듭니다. SignGemma와 MedGemma의 개발은 Google이 AI를 특정 고가치 영역에 적용하고 사회적 요구(접근성, 의료)를 해결하려는 의지를 보여줍니다. 이는 ‘놀라움’ 요소를 넘어 실제적이고 유익한 사용 사례로 나아갑니다. 이는 Google이 AI의 원시적인 능력뿐만 아니라 윤리적이고 포괄적인 AI 개발에서도 선두 주자임을 나타냅니다. Gemma 3n과 같은 더 작고 효율적인 모델에 대한 집중 5은 온디바이스 AI를 추진하여 개인 정보 보호를 강화하고 대기 시간을 줄여 이러한 애플리케이션을 민감한 영역에서 더 실용적이고 안전하게 만들 수 있음을 시사합니다.

에이전트 혁명: 주도적으로 행동하는 AI 비서

‘에이전트 AI’에 대한 강조는 AI가 단순한 쿼리 응답을 넘어 복잡한 다단계 작업을 사전에 수행하는 방향으로 전환되고 있음을 의미합니다.

Project Astra: 보편적 개인 비서

작년에 처음 공개된 Project Astra는 ‘차세대 AI 비서’이자 Google DeepMind의 핵심 이니셔티브로 소개되었습니다.7 이는 사용자 주변 세계를 이해하고 다양한 다중 모드 입력을 통해 상호 작용하도록 설계된 ‘보편적 AI 에이전트’로 개념화되어 진정으로 상황 인식적인 경험을 제공합니다.7

강력한 시연은 그 인상적인 능력을 강조했습니다. 사용자가 자전거 수리 지원을 요청하자 Astra는 인터넷에서 PDF 매뉴얼과 YouTube 튜토리얼을 자율적으로 검색했으며, 심지어 특정 부품에 대해 지역 자전거 가게에 전화까지 걸었습니다. 이 모든 것이 ‘음성 명령 외에 추가적인 사용자 상호 작용 없이’ 이루어졌습니다.7 이 AI 에이전트는 여러 소스에서 정보를 처리하고, 다양한 애플리케이션과 상호 작용하며, 사용자에게 자연스러운 대화를 유지하면서 여러 작업을 동시에 관리할 수 있습니다.7 Project Astra는 올해 말에 출시될 예정이며, 이 미래 지향적인 비전을 현실로 가져올 것입니다.7 그 능력은 ‘젯슨 가족’의 ‘로지 로봇 스타일 비서’를 연상시키며, 개인 비서 분야의 큰 도약을 의미합니다.7

Project Mariner: 지능형 웹 자동화

Project Mariner는 Google AI Ultra 구독자에게 제공되는 Chrome 브라우저용 특수 스마트 비서입니다.7 핵심 기능은 사용자 대신 정보 검색, 심층 연구 수행, 항공편 및 예약 예약, 심지어 구매(명시적인 사용자 허가 하에)와 같은 복잡한 작업을 수행하기 위해 인터넷을 적극적으로 탐색하는 것입니다.6

Google I/O에서 Project Mariner의 시연은 인상적이었으며, 부동산 목록 검색, 예약, 최저가 검색 및 사용자 승인을 위한 장바구니에 항목 추가를 통해 쇼핑을 돕는 능력을 선보였습니다.7 Project Mariner의 최근 업데이트에는 AI 에이전트가 최대 10가지 작업을 동시에 수행할 수 있는 향상된 멀티태스킹 기능과, 이전에 완료된 작업에서 학습하여 자세한 추가 지시 없이 유사한 작업을 수행할 수 있도록 하는 ‘가르치고 반복하기’ 기능이 포함됩니다.6 Google은 이러한 에이전트 AI 기능을 Chrome, AI 모드를 통한 Google 검색, 그리고 Gemini 앱 등 자사 생태계 전반에 통합할 계획입니다.6

Project Astra와 Project Mariner가 ‘사용자 대신’ 그리고 ‘음성 명령 외에 추가적인 사용자 상호 작용 없이’ 작업을 수행하며 7, ‘인터넷을 적극적으로 탐색’하고 ‘여러 작업을 관리’한다는 점은 7 이들이 단순한 쿼리 응답을 넘어선다는 것을 명확히 보여줍니다. 이는 AI의 역할이 반응적인 정보 제공자에서 능동적인 디지털 위임자로 근본적으로 변화하고 있음을 의미합니다. 사용자는 더 이상 단순히 질문을 하는 것이 아니라, AI에 전체 워크플로우나 프로젝트를 할당하게 됩니다. 이는 개인 생산성, 비즈니스 운영 및 미래의 업무 방식에 심오한 영향을 미칩니다. 일상적이고 시간이 많이 소요되는 디지털 작업은 AI에 위임될 수 있으며, 이는 인간의 인지 자원을 더 복잡하거나 창의적인 노력에 집중할 수 있도록 해줍니다. 이는 AI를 단순한 자동화를 넘어 진정한 지능형 에이전시로 발전시키며, AI가 의도를 이해하고 독립적으로 실행한다는 점에서 이러한 발표가 ‘충격적’으로 간주되는 핵심 이유입니다.

실시간 통신: Google Meet 번역

Google Beam(AI 우선 통신 플랫폼으로 리브랜딩된 Project Starline)의 일환으로, Google은 Google Meet 번역 기능의 중요한 발전을 발표했습니다.6 이 기능은 회의 중 실시간 음성 번역을 제공하며, 단순히 번역하는 것을 넘어 발화자의 음성과 톤을 일치시켜 번역이 마치 원어민에게서 직접 나오는 것처럼 들리도록 설계되었습니다.6

현재 영어와 스페인어로 제공되며, 향후 몇 주 내에 더 많은 언어가 출시될 예정인 이 기능은 가상 통신에서 중요한 언어 장벽을 허무는 것을 목표로 합니다.6 이 AI 기반 기능에 접근하려면 Google AI Pro 구독(월 19.99달러)이 필요합니다.7 업계 평론가들은 이러한 Google Meet 개선 사항을 ‘경이롭다’고 평가하며, 전 세계적으로 연결된 개인 및 기업의 의사소통을 크게 용이하게 할 잠재력을 강조했습니다.7

Project Astra의 복잡한 작업이 음성으로 시작되고 7, Chrome의 Gemini가 음성 상호 작용을 허용하며 7, Google Meet 번역이 원활한 대화 흐름을 촉진하고 6, 검색의 AI 모드가 명시적으로 ‘대화형’이라는 점은 3 자연어(음성 및 텍스트)가 이러한 새로운 AI 기능과의 주요 상호 작용 방식이라는 점을 강조합니다. AI가 복잡한 자연어 명령을 이해하고 다단계 작업을 실행할 수 있게 되면, 메뉴, 버튼, 탐색 기능이 있는 기존의 그래픽 사용자 인터페이스(GUI)에 대한 의존도가 줄어듭니다. 이는 인간이 기술과 상호 작용하는 방식의 근본적인 변화를 나타내며, 더 직관적인 대화형 패러다임으로 나아갑니다. 이는 많은 작업에서 화면과 키보드에 대한 의존도를 줄여 기술을 일상생활에 더 접근하기 쉽고 통합되게 만들 수 있습니다. Google I/O 2025는 이러한 장기적인 추세를 크게 가속화하며, 사용자가 복잡한 인터페이스를 탐색하는 대신 기술과 ‘대화’하는 미래를 상상하게 합니다.

전략적 함의 및 산업 변화

새로운 검색 패러다임: 웹 트래픽 및 콘텐츠 전략에 미치는 영향

Google의 AI 기반 검색 개편은 근본적으로 ‘사람들이 정보를 얻는 방식을 변화시키고 웹사이트로의 인터넷 트래픽 흐름을 제한’하고 있습니다.3 이는 기존 인터넷 생태계에 상당한 혼란을 야기합니다. AI 개요는 이미 200개 이상의 국가에 배포되어 매월 15억 명의 사용자에게 도달하며 광범위하게 채택되고 있습니다.6 AI 모드는 미국에서 기본 검색 인터페이스가 되어 Google을 Gemini 2.5 기반의 대화형 비서로 전환하고 있습니다.10

중요한 결과는 지난 1년 동안 Google 검색 결과에서 클릭률이 거의 30% 감소했다는 점입니다. 이는 사용자들이 ‘AI 개요’에 점점 더 만족하여 외부 웹사이트를 방문할 필요 없이 검색 결과 페이지에서 직접 필요한 답변을 찾기 때문으로 분석됩니다.3 이는 Google이 단순히 페이지 순위를 매기는 대신 여러 소스를 통합하여 개인화된 응답을 구성함에 따라 ’10개의 파란색 링크’ 모델의 종말을 알립니다.10

콘텐츠 게시자에 대한 영향: 트래픽의 상당한 재분배가 발생하고 있습니다. 일반 정보 사이트는 상당한 감소(트래픽 30-40% 감소)를 겪는 반면, **초전문 콘텐츠는 괄목할 만한 증가(15-45%)**를 보입니다.10 AI는 ‘정확한 방법론, 정량화된 데이터, 인용된 출처’로 특징지어지는 콘텐츠를 선호하여 깊이 있고 권위 있는 정보를 제공하는 ‘틈새 전문가’에게 이점을 제공합니다.10 콘텐츠 제작자의 새로운 목표는 ‘클릭 확보에서 인용’으로 바뀌고 있습니다. 이제 목표는 단순히 방문되는 것이 아니라 ‘AI에 의해 인용되고 추천되는 것’입니다. 이는 구조화된 콘텐츠, 문서화된 전문성, 특정 질문에 대한 자율적인 답변 제공을 필요로 합니다.10

Google의 명확한 전략적 목표는 직접적이고 완전한 답변을 제공하여 ‘사용자를 자사 플랫폼에 유지’함으로써 외부 사이트로의 클릭을 줄이고 자체 생태계 내에서 광고 기회를 유지하는 것입니다.3 Google이 AI 생성 답변을 검색 결과 내에서 직접 제공하여 사용자가 외부 웹사이트로 이동할 필요성을 줄이는 것은 주목할 만합니다. 이는 정보 접근을 Google 생태계 내로 중앙 집중화하는 ‘닫힌 정원’ 효과를 효과적으로 만듭니다. 사용자에게 편리하지만, 이는 유기적 검색 트래픽에 의존하는 웹 게시자와 콘텐츠 제작자에게는 실존적 위협이 됩니다. 이는 가치 제안을 콘텐츠 호스팅에서 AI 소비에 최적화된 콘텐츠 생성으로 전환시킵니다. 게시자는 SEO 전략을 ‘클릭 확보에서 인용’으로 조정해야 합니다.10 이는 다양성이 줄어들고 Google이 더 많이 통제하는 인터넷으로 이어질 수 있으며, 정보 독점과 개방형 웹의 장기적인 건전성에 대한 우려를 제기합니다.

AI가 ‘문서화된 전문성’과 ‘초전문 콘텐츠’를 선호하여 10 틈새 전문가의 트래픽이 증가(15-45%)하고 일반 사이트의 트래픽이 감소(30-40%)하는 것은 10 AI 검색 시대에 ‘전문성’의 정의가 재정의되고 있음을 시사합니다. 전통적인 웹에서는 광범위한 커버리지와 높은 도메인 권한이 가시성을 결정하는 경우가 많았습니다. AI를 사용하면 가치가 AI가 쉽게 분석하고 추출하고 인용할 수 있는 깊이 있고 검증 가능하며 구조화된 지식으로 전환됩니다. 이는 어느 정도 전문성을 민주화하여, 더 작고 고도로 전문화된 게시자나 개별 전문가가 AI 소비에 더 정확하고 잘 문서화되어 있으며 권위 있는 콘텐츠를 제공한다면, 더 크고 일반적인 미디어를 능가하는 상당한 가시성을 얻을 수 있게 합니다. 이는 콘텐츠 생성, SEO 전략 및 정보 제공자의 경쟁 환경에 상당한 변화를 가져와 깊이와 검증 가능한 데이터를 강조하게 될 것입니다.

<br>

표 2: AI 모드가 검색 트래픽에 미치는 영향 (일반 vs. 전문 콘텐츠)

콘텐츠 유형관찰된 트래픽 영향영향의 이유 (AI 선호도)게시자를 위한 전략적 함의
일반 정보 사이트30%~40% 트래픽 감소 10AI가 기본적인 쿼리를 직접 처리하여 외부 사이트 방문 불필요 10AI가 직접 답변하는 기본 정보 대신 더 깊이 있는 분석 및 독점 콘텐츠에 집중해야 합니다.
초전문 콘텐츠15%~45% 트래픽 증가 10AI가 정확한 방법론, 정량화된 데이터, 인용된 출처를 선호하며, 깊이 있는 권위 있는 정보를 선호함 10AI에 의해 인용되고 추천되는 것을 목표로 구조화되고, 문서화된 전문 지식을 제공해야 합니다. 틈새 시장 전문성을 강화해야 합니다.

<br>

개발자 생태계: 기회와 도전

Android Studio의 Gemini 통합(테스트를 위한 Journeys, 충돌 수정, UI 변환, 코드 생성 포함)과 같은 새로운 도구의 도입은 ‘Android 개발을 가속화’하고 개발자 생산성을 크게 높이는 것을 목표로 합니다.5 확장된 Google 개발자 프로그램은 Gemini Code Assist Standard 및 Google One AI Premium을 포함한 상당한 AI 혜택을 제공하여 고급 AI 도구에 대한 접근성을 더 넓은 개발자 기반에 제공합니다.5 그러나 에이전트 AI 및 다중 모드 상호 작용으로의 급격한 전환은 개발자에게 새로운 API, 프레임워크 및 상호 작용 모델에 대한 적응을 요구하는 가파른 학습 곡선과 새로운 패러다임을 제시합니다.5

경쟁 환경 및 Google의 포지셔닝

Google의 공격적이고 포괄적인 AI 출시는 ‘ChatGPT 및 Perplexity와 같은 다른 AI 기반 검색 옵션과의 경쟁 심화’에 대한 직접적이고 강력한 대응입니다.3 핵심 검색 제품에 고급 AI를 직접 통합함으로써 Google은 지배적인 시장 지위를 유지하는 것을 목표로 합니다. 흥미롭게도, Associated Press 기자가 질의했을 때 Google 자체 AI 모드는 ‘Google의 AI 모드가 정보 접근 및 온라인 영향력 영역에서 Google을 더욱 강력하게 만들 가능성이 매우 높다’고 밝혔으며 3, 이는 회사의 전략적 방향에 대한 내부적 확신을 강조합니다. 스마트 안경 시장으로의 재진입은 Meta Platforms의 기존 제품과 직접 경쟁하며, 차세대 개인 컴퓨팅 인터페이스를 위한 광범위한 경쟁을 나타냅니다.3

윤리적 고려 사항 및 사용자 채택

비교적 짧은 테스트 기간 후 AI 모드를 광범위하게 출시하기로 한 결정은 Google이 ‘기술이 브랜드 명성을 손상시키는 잘못된 정보를 습관적으로 뱉어내지 않을 것’이라는 ‘확신’을 반영합니다.3 이는 AI 기반 정보 환경에서 사용자 신뢰를 유지하는 데 매우 중요합니다. 개인화 목적으로 사용자의 Gmail 및 기타 Google 앱에 AI가 접근할 수 있도록 하는 옵트인 옵션에 대한 실험은 중요한 개인 정보 보호 문제를 제기하며, 향상된 유틸리티와 사용자 데이터 보호 사이의 섬세한 균형이 필요합니다.3 발표의 ‘충격적’이고 ‘공상 과학적 미래’적 특성은 전례 없는 편리함으로 인해 빠른 사용자 채택 가능성을 시사하지만, AI가 더욱 보편화되고 자율화됨에 따라 사회적 적응 과제도 내포하고 있습니다.7

AI 모드의 ‘개인 컨텍스트’ 기능은 Gmail 및 기타 Google 앱의 사용자 데이터를 (옵트인으로) 사용하여 개인화된 제안을 제공합니다.3 이는 트레이드오프를 강조합니다. 심층적으로 개인화된 AI 경험(예: AI 쇼핑 에이전트, 개인화된 스마트 답장)은 엄청난 편리함과 유용성을 제공합니다. 그러나 이러한 개인화는 민감한 사용자 데이터에 대한 접근에 크게 의존합니다. Google은 이를 ‘옵트인’으로 제시하지만, 이러한 기능의 순수한 유용성은 사용자가 다른 경우보다 더 많은 데이터를 공유하도록 강한 동기를 부여할 수 있습니다. 이러한 역학은 데이터 개인 정보 보호 및 디지털 감시에 대한 우려를 증가시킬 수 있습니다. 또한 AI의 효율성이 접근할 수 있는 개인 데이터의 양에 정비례하는 미래를 시사하며, 잠재적으로 개인 정보 보호를 강화하는 AI 대안에 대한 강력한 시장을 형성하거나 더 엄격한 데이터 거버넌스 규제를 촉구할 수 있습니다.

수익화 전략

Google은 월 249.99달러의 ‘Ultra’ 구독 패키지를 도입하여 Deep Think 모드, Flow 영화 제작 플랫폼, 에이전트 자동화를 위한 Project Mariner, 상당한 저장 공간(30TB), YouTube Premium을 포함한 가장 고급 AI 도구에 대한 접근을 제공합니다.3 이전의 월 19.99달러 요금제는 ‘AI Pro’로 이름이 변경되었으며, 일반 사용자에게 핵심 기능을 계속 제공할 것입니다.7 이러한 계층별 구독 모델은 Google이 기존의 광고 중심 수익 모델을 넘어 고급 AI 기능에 대한 새로운 수익화 전략을 명확히 탐색하고 있음을 나타냅니다.3

월 249.99달러의 고가 AI Ultra 요금제와 월 19.99달러 AI Pro 요금제의 도입은 3 고급 AI 기능에 대한 프리미엄 계층을 명확히 정의합니다. 이는 Google이 AI 제공을 뚜렷한 가격 계층으로 세분화하고 있음을 나타냅니다. 가장 강력하고 에이전트적이며 리소스 집약적인 AI 기능(예: Project Mariner의 자율 웹 작업, Deep Think 모드, 고급 생성형 AI 도구)은 프리미엄 계층으로 묶입니다. 이는 AI의 최첨단이 보편적으로 무료가 아님을 나타냅니다. 이는 더 큰 재정적 자원을 가진 개인과 기업이 상당한 생산성 및 경쟁 우위를 제공하는 도구에 접근할 수 있는 이중 계층 시스템을 만듭니다. 이는 기존 디지털 격차를 심화시켜, 프리미엄 AI를 감당할 수 있는 사람들과 그렇지 못한 사람들 간의 생산성, 혁신 및 고급 기능 접근성 격차를 잠재적으로 확대할 수 있습니다. 또한 Google의 수익 모델이 광고를 넘어 고급 AI 서비스에 대한 직접 구독으로 크게 전환하고 있음을 시사합니다.

결론: AI 기반 미래를 위한 방향 설정

Google I/O 2025의 ‘충격적인’ 특성은 AI의 광범위하고 변혁적인 통합, 특히 AI가 상황을 사전에 이해하고, 다단계 작업을 수행하며, 실제 세계와 다중 모드 방식으로 상호 작용할 수 있도록 하는 ‘에이전트’ 기능으로의 전환에서 비롯됩니다.6 이 패러다임 전환은 단순한 AI 지원을 넘어 AI를 디지털 위임자로 발전시키며, 인간-컴퓨터 상호 작용을 근본적으로 재정의하고 한때 상상 속에만 존재했던 ‘공상 과학 같은 편리함’을 약속합니다.7 Google 검색에 대한 직접적이고 즉각적인 영향은 오랜 웹 트래픽 모델에 도전하고 콘텐츠 전략의 재평가를 강요하며, 전체 인터넷 생태계에 중대하고 잠재적으로 파괴적인 변화를 나타냅니다.3

Google은 이 ‘AI 플랫폼 전환의 새로운 단계’에서 스스로를 리더로 확고히 자리매김하고 있으며, Gemini를 핵심 제품, 개발자 도구 및 새로운 하드웨어 인터페이스에 깊이 통합함으로써 지배력을 공고히 하는 것을 목표로 합니다.3 미래에는 스마트 안경 및 지능형 홈 시스템과 같은 기기를 통해 AI가 일상생활에 원활하게 통합되어, 더욱 직관적이고 화면 의존도가 낮은 상호 작용 모델로 나아가는, 점점 더 주변적이고 다중 모드적이며 능동적인 AI를 보게 될 것입니다.9 업계는 AI 에이전트가 더욱 정교하고 자율화됨에 따라 콘텐츠 생성, 검색 엔진 최적화, 데이터 개인 정보 보호 및 경쟁 환경에 대한 심오한 함의에 계속 씨름할 것입니다.3 계층별 AI 구독을 통한 Google의 진화하는 수익화 전략은 프리미엄 AI 기능이 광고를 넘어 비즈니스 모델을 다각화하는 중요하고 성장하는 수익원이 될 미래를 시사합니다.3 접근성(SignGemma) 및 전문화된 애플리케이션(MedGemma)에 대한 강조는 AI가 중요한 사회적 문제를 해결하고 더 큰 포괄성을 촉진하여 상업적 애플리케이션을 넘어 더 넓은 사회적 영향을 미칠 수 있는 미래를 가리킵니다.5

‘AI 모드’의 2.5개월이라는 짧은 테스트 기간 후의 빠른 출시 3와 여러 기능(Gemini Live, 미국 내 AI 모드)의 즉각적인 가용성 6은 공격적인 배포 전략을 시사합니다. 이러한 빠른 개발 및 배포 속도는 다른 주요 AI 플레이어(예: ChatGPT, Perplexity)와의 치열한 경쟁과 시장 리더십을 확립하려는 열망에 의해 주도될 가능성이 높습니다. 이러한 공격적인 전략은 AI에 대한 사용자 채택과 사회적 적응을 가속화할 것입니다. 이는 AI의 ‘미래’가 많은 산업과 개인이 예상하는 것보다 훨씬 빠르게 도래하고 있음을 의미하며, 모든 이해관계자에게 신속한 적응을 요구하거나 시대에 뒤떨어질 위험을 감수해야 합니다. 이러한 가속화된 속도 자체가 ‘충격적인’ 요소이며, 기술 생태계의 모든 이해관계자에게 민첩성을 요구합니다.

‘AI 모드’가 ‘전문가와의 대화’로 묘사되고 3, Project Mariner 및 Project Astra와 같은 에이전트가 복잡한 다단계 작업을 수행하는 것은 6 ‘검색’의 정의가 쿼리-응답에서 작업-완료로 전환되고 있음을 보여줍니다. 전통적으로 검색 엔진은 쿼리에 대한 정보를 검색하는 도구였습니다. Google의 발표는 ‘검색’의 근본적인 재정의를 나타냅니다. 더 이상 단순히 답변을 찾는 것이 아니라, 무언가를 완료하는 것입니다. AI는 사용자 대신 작업을 완료하는 에이전트 역할을 합니다. 이는 Google의 유용성을 기존 정보 검색을 훨씬 넘어 확장하여 일상생활과 업무에 없어서는 안 될 에이전트로 만듭니다. 이러한 전환은 사용자가 인터넷과 상호 작용하는 방식과 기업이 온라인 존재를 설계하는 방식에 심오한 영향을 미쳐, 단순히 ‘발견 가능'(즉, 검색 결과에 나타나는 것)한 것에서 AI에 의해 ‘실행 가능'(즉, AI가 해당 사이트에서 작업을 수행할 수 있도록 하는 것)한 것으로 전환될 것입니다. 이는 Google을 정보 게이트웨이에서 디지털 액션 플랫폼으로 변화시킵니다.