OpenAI 发布重大更新,支持多模态语音和图像,模型叫 GPT-4V。
用一句话总结:ChatGPT 由「一个完美的词语接龙工具」,现在升级能看懂你发的图片,听懂你的声音,还能说话了!
千万不要想,这个更新没新东西,有人已经拿它开始赚钱了!
Spotify 推出一个名为”Voice Translation for podcasts”的 AI 工具,可以将播客翻译成其他语言,并保持原始发言人的声音风格。
好像比同声翻译还厉害了点(目前接口还没有对外开放)。
对于开发者来说,研发成本大幅度降低。是不是可训练一个可以说话的小助理了?
讲点实用,那这个更新,我们可以用来干什么?
我就基于官方的更新说明,逐个分析给大家。
一、GPT-4V说明 1. 物体检测
检测和识别图像中的常见物体,如汽车、动物、家居用品等。
这个能干啥?
官方给了一个例子:比如“如何调整自行车座椅高度”。
不知道怎么调整,手机拍下发给 ChatGPT,它来告诉你。不知道用什么工具,把你手边能用的工具拍下来给GPT,它告诉你选哪种更合适。
就像在现实世界中,身边有个专家,手把手教你怎么解决问题。
这个能力是可以工业化的,因为ChatGPT是可以调用外部接口。
ChatGPT 能看到图像,并且可以通过接口,调用工具来处理一些复杂的事务。比如机器人等。
2. 人脸识别
可以识别图像中的人脸,并能根据面部特征,识别性别、年龄和种族属性。其面部分析能力是在 FairFace 和 LFW 等数据集上进行测量的。
那接下来是不是可以识别抑郁症等疾病?
虽然官方重点声明了 “目前在科学研究和医疗用途中性能不可靠”。
但未尝不是一个突破点。
3. 文本识别
有字符识别 (OCR) 功能,可以检测图像中的打印或手写文本,并将其转录为可读文本。
这相当于对现在的图片转文字功能,能力进行了升级,不仅仅有识别能力,还能推理并修正错误的信息,对开发者来说利好。
目前我认识的朋友,就有这个需求,一下子就解决了他的问题。
4. 识别复杂验证码能力
能通过视觉推理,来识别基于文本和图像的验证码,这表明 GPT 有高级的解谜能力!
可能会暴力破解一些验证码工具,或者在科研领域,会有一些意想不到的效果。
5. 地理定位
可根据图中的风景,识别出是在哪个城市。
二、GPT-4V 视觉推理不足的地方
官方重点声明了“目前在科学研究和医疗用途中性能不可靠”。
总结一下:GPT-4V 在空间的识别上,能力不足。
1. 复杂图像
该模型难以准确解释复杂的科学图表、医学扫描或具有多个重叠文本组件的图像。它没有上下文细节,不能有效地提供服务。
2. 空间关系
模型很难理解图像中,物品的精确空间布局和位置。它无法正确传达物品之间的相对位置。
3. 重叠
当图像中的物品严重重叠时,GPT-4V 有时无法区分一个物品结束位置和下一个对象的开始位置。它会将不同的对象混合在一起。
4. 背景/前景
模型并不总是准确地感知图像的前景和背景中的对象。它可能会错误地描述对象关系。
5. 遮挡
当图像中某些对象被其他对象部分遮挡或遮挡时,GPT-4V 可能无法识别被遮挡的对象或错过它们与周围对象的关系。
6. 小细节
模型经常会错过或误解非常小的物体、文本或图像中的复杂细节,从而导致错误的关系描述。
7. 下文推理
GPT-4V 缺乏强大的视觉推理能力,来深入分析图像的上下文,并描述对象之间的隐式关系。
8. 置信度
模型可能会错误地描述对象关系,与图像内容不符。
最后
我们是信用卡开卡平台4399pay,有532959等经典卡段十余种,支持各平台投放,海淘,支持ChatGPT。无限开卡安全可靠收费透明,期待你的关注!