![]()
由|有一组SOHU技术| Chang Boshuo编辑| Yang Jin于5月21日上午1:00北京时间,Google I/O开发人员会议正式在美国加利福尼亚州山景城的海岸线圆形剧场举行。在渴望AGI追逐的渴望下,Google的每一步都吸引了世界的关注。这次会议的重点是“从研究到现实”的主题,该主题全面地展示了Google如何与AI切割技术与各种产品和开发人员生态系统深入融合。在此基础上,Google还发布了一系列基本技术和产品更新。 Google首席执行官Sundar Pichai在会议上说:“ Google专注于根据可见,操作和控制的原则使AI更接近用户的实际需求。” Gemini2.5综合更新TheGemini 2.5 Pro于今年3月正式发布,Gemini2.5对本次会议有了新的升级。更新的2.5pro具有一流的长上下文,并了解视频具有100万个Windows上下文的性能。目前,2.5Pro首先将WebDev Arena和Lmarena排名排名。 2.5 Pro还连接到深识别模式,该模式可以通过DeepTink 2.5pro更好地实现高度复杂的数学和编码谨慎。目前,2.5 Pro Deep Think取得了2025年USAM的出色结果。这也导致LiveCodeBench(用于编程级编程的更困难的基准),并为MMMU测试多模式推断得分84.0%。 2.5 Flash设计用于速度和低成本。更新的2.5 Flash通过主要基准测试(例如识别,多模式,代码和长上下文)进行了改进,同时使用令牌减少了20-30%。现在,新的2.5 Flash可以在Google AI Studio,Vertex AI和Gemini应用程序的预览中获得。除了更新模型的基本技能外,Gemini2.5系列还宣布了一系列新功能。首先,本地音频输出和生动的改进。 Liveapi LA取消了音频视频输入和本机音频输出对话的预览版本。用户可以使用更自然和表现力的双子座,用户还可以自定义双子座输出音调,口音和语音样式。此外,2.5 Pro和2.5 Flash版本还发布了新的文本到语音功能。这些功能首次支持多扬声器,从而通过本机音频输出实现双通道文本到语音,该音频输出支持了24种语言和许多语言之间的无缝过渡。 Google还宣布了Mariner的计算机使用功能的项目将引入Gemini API和Vertex AI。预计将广泛推广到开发人员使用标签 - 心脏测试。对于那些发展的人,Google还可以提高其体验。在会议上,Google宣布2.5 Pro和Flash将包括Gemini API和Vertex AI的摘要。思维的摘要可以以清晰的格式调整模型的原始想法,包括标题,基本细节和模型操作信息(例如,如何使用工具)。同时,2.5 Flash将添加到思维预算中,该预算旨在通过平衡潜伏期和质量来更好地控制成本。正如Google Deepmind首席执行官Demis Hassabis所说:“我们将继续对基础研究的广度和深度进行投资,并努力发明实现普遍人工智能(AGI)所需的下一个重大突破。它是一个可以通过理解和模拟大脑的世界来计划和想象新体验的世界模型,例如,在Google上接受了诸如Google的模型。视频生成模型已更新为GEO3。方面和最大2K分辨率,以及与Gemini应用,WHISK,VERTEX AI等在线当前在线。 2。GeminiLive更新从现在开始,Google将免费为Android和iOS用户提供免费的相机和屏幕共享功能。 Gemini Live将包括地图,日历,活动以及与更多Google生态系统连接的计划。用户可以通过在聊天中提出请求来调用相关应用程序。 3。双子座2.5更新有许多不同的双子座体验,画布更容易理解和强大。用户可以使用45种语言创建InteractiveInfographics,测试甚至播客风格的概述。同时,“ Vibe编码”模式使非专业人士能够经历自然。交谈快速开发应用程序原型。深层研究功能已变得更加个性化。目前,用户可以上传PrivATE文件并连接到Google Drive和Gmail,以自动生成自定义研究报告。从现在开始,用户可以在Google Chrome上尝试Gemini,该Chrome将首先为美国用户审查。在第一个版本中,Gemini将帮助用户在其浏览的任何网站或页面上总结并说明复杂信息。将来,Gemini将能够使用许多浏览器选项卡,并根据用户的说明在网页上浏览。 4。GoogleAI Pro和Google AI Ultra Plangoogle目前正在启动两种订阅服务:Google Al Pro和Google Al Ultra。 Google Al Pro的价格为每月$ 19.99,除了以前的Gemini Advanced套件外,还包括Flow,NotebookLM和其他产品。 Google AI Ultra目前仅在美国可用,并将在许多未来的国家 /地区逐渐推出,每月收取249.99美元的费用,您将享受所有Google AI的全部Google服务和产品。升级的查找和编码功能1。NCHRONOUS代码助理Jules官方公共Beta Jules是一种异步代理编码助手,可以直接集成到现有代码库中,并在安全的Google Cloud Virtual Machine(VM)中克隆代码基础,完全了解项目的整体上下文,并执行项目的整体上下文,并执行项目的整体上下文,并执行项目的整体上下文。测试,开发新的坦波克,提供日志的音频更新,组织错误,评估更改等。当用户专注于其他任务时,Jules可以在后台运行,显示其计划,推理过程和完成后进行的更改的差异。 Jules不会使用您的私人代码进行训练,并且在用户的私人库中工作将默认保留私密。目前,Jules将在公共Beta期间完全免费,并且在平台增长后可能会引入付费计划。 2。新的AI搜索体验是Google AI搜索的最强功能,具有更高级的推理和多模式审查功能,可以通过随后的问题和实际网络链接进行更深入的审查。在ComingSunday中,用户将在Google Search和Google Apps上查看新的AI模式选项卡。深度AI模式模式可以自动启动数百个搜索,将信息组合到字段中并生成详细的引用,从而节省了多个手动研究时间。同时,AI模式还支持实时交互式搜索。用户只需要询问他们的手机摄像机,AI可以给我实时答案和相关链接。此外,AI模式还带来了新的购物体验,在这种体验中,用户可以监视所需的商品价格。当商品的价格下跌时,系统会自动将货物添加到购物车中。购买服装时,AI Monag还将提供虚拟工具工具。用户只需要全身自拍照即可在线尝试不同的衣服。该型号还可以准确恢复皱纹和垂直纹理不同的材料。 Android XR和Google Beam已将双子座带到物理世界已有十多年了。 Google致力于智能眼镜的概念。 Android XR的推出已在该领域又迈出了Google又一个重要的一步。在这次会议上,Google已正式宣布将与Monster和Warby Parker眼镜的柔和品牌合作,以创建配备Android XR系统的时尚眼镜。这些眼镜借助相机,麦克风和扬声器,与手机结合使用,并访问应用程序而无需滚动口袋。将眼镜与双子座配对后,您可以看到并听到用户的每一个动作,以便您可以理解情况,从而记住重要的事情。在会议上,Google向公众展示了Android XR眼镜如何在实际情况下工作,以及向朋友发送消息,约会,询问路线,拍照并翻译实时语言n两个。 Google Beam是一个新的AI优先视频通信平台。在最先进的视频模型中,Beam能够通过一组六个摄像机将2D视频流转换为现实的3D体验,并与AI技术结合在一起,并结合了视频流,以在3D光场显示器中显示用户图像,精确地以毫米和电流为单位,并在每秒60帧中实时实时。 AI视频模型和显示技术的组合为用户提供了MUSSEREYE接触,观察温和的表情,并发展理解和信心,例如前线。根据官方声明,Beam与HP合作,明年将为第一批客户提供第一组Google Beam设备。 2025年的Google I/O会议几乎实现了所有Google AIS的所有更新,就在上次开发人员会议之后的一年,这使人们对Google渴望领导当前的AI渴望的人渴望。作为Google首席执行官Sundar Pichai SaiD在他的开幕词中:“技术具有令人难以置信的力量,激发了我们的灵感,使我们感到惊讶,并推动了我们的前进。我迫不及待地想看到我们可以共同创造的好东西。”回到Sohu看看更多