shadowrocket使用代理
5月15日凌晨1点,抢在谷歌年度开发者大会Google I/O开幕前,OpenAI 发布了全新期间AI模型——
GPT-4o中的“o”代表“omni”,通常作为前缀使用,在《剑桥词典》中,它的英文释义是:everywhere or everything。
根据OpenAI官网的介绍,GPT-4o可以处理文本、音频和图像的任意组合输入,并生成对应的任意组合输出。 特别是在音频方面,它可以在短至232毫秒的时间内响应用户的语音输入,平均320毫秒的用时已经接近人类在日常对话中的反应时间。 此外,GPT-4o在视觉和音频理解方面也表现出色,支持包括中文在内的20种语言进行音频等多模态交互。
这么说可能有点抽象。@商英君 观看了官网发布的视频后,感觉AI好像真的长出了眼睛,不仅能和人类实时视频和语音(反应速度极快),还能辅导孩子作业(官网视频里AI在教数学),甚至现场做起了双语翻译。
测试期间GPT-4o能看到你并通过周围的环境进行判断,还能感知你的情绪,听她的回答也很“human”。【换句线o 对话就跟真人似的。】
小编找了一圈使用入口,才发现这些大佬都是引流好手呀~ 嘴上说着 GPT-4o 都能免费用,但现在能用上 GPT-4o 的只有 Plus 账号,普通用户要用上视频和语音功能,可能得再等等了。
奥特曼也在推特上毫不避讳地,把 GPT-4o 跟科幻电影《Her》联系起来。( 这部电影讲的是人和 AI 语音助理谈恋爱的故事 )
果然,OpenAI 这次GPT-4o 的现场演示效果再次惊艳世界,特别是实时语音和视频交互的能力高出其他AI模型几个level有没有。
不过,谷歌也不是吃素的shadowrocket使用代理。几个小时后,Google DeepMind首席执行官哈萨比斯亲自携谷歌版《Her》登场,2小时发布会疯狂复仇!
同样能会还有,不仅能几乎没有延迟地和人类流畅交流,通过摄像头,Project Astra甚至能直接帮忙读代码:跟GPT-4o不相上下。
③ Gemini 1.5 Pro,上下文长度将达到惊人的200万(2000k)token。超过了目前所有的大语言模型,而且开放给个人用户使用。
相比之下,GPT-4 Turbo只有128K,Claude 3也只有200K。 这也意味着——你可以给模型输入2小时视频、22小时音频、超过6万行代码或者140多万单词。
最后还有一个重磅消息:谷歌搜索将被Gemini重塑,形态从此彻底改变!我们不再需要自己点进搜索结果,而是由多步骤推理的AI Overview来代办一切。
这期的内容就分享到这里了。如果你想提高自己的口语水平,欢迎加入Hitalk口语试学计划,0元定制1V1口语提升方案: