如果大家之前有看小雷写的“ChatGPT”文章,应该会对这个新鲜前沿的自然语言模型,有个大概了解。

前几天,小雷也借着GPT-4发布的热度,和大伙盘点了,那些目前已经接入ChatGPT AI且成功落地运行的应用。

和很多人预料的一样,随着ChatGPT接口的开放,很多公司得以调用其能力,让自家产品如虎添翼。


(相关资料图)

比如有人开发【视频总结】网站,在你没空看长视频时,帮你在几秒内总结出视频核心主题。

图源:ChatYoutube

还有人用万能的ChatGPT API,做了个【和文档聊天】网站。

把看不懂,或者不想全部看完的PDF文档扔进去,它能给咱们提取、定位和总结信息。

而且整个过程是“你问它答”,像是一位全知全能的智能助理,有求必应。

图源:小雷哔哔

但怎么说呢,现在ChatGPT被应用的大方向,我总感觉不太对劲。

无论是科技巨头,还是身边的普通人,都会不自觉把它和生产力的提升挂钩。

事实也是如此,很多调用ChatGPT API的产品,本质上还是往生产力和效率上内卷。

图源:小雷哔哔

以至于,小雷身边一些在互联网公司做文案策划的朋友,开始担心本职要被AI所替代。

这其实不是坏事儿,用得好的话,确实能提高工作效率,实现提前摸鱼。

今天文章的提纲,就有ChatGPT的功劳

但小雷认为,科技的发展,不仅仅是为了更好地工作。

也许在人文关怀和生活上,ChatGPT也能为咱们做点什么...

恰好我最近看到,有一家专注于做盲人公益App的公司,就把自家App和GPT-4技术相结合,推出了Virtual Volunteer功能。

不夸张地说,这功能犹如盲人的另一双眼,能帮他们“看清”世界。

图源:OpenAI。

没错,AI现在能帮盲人们识别生活中各种物体了。

有网友看到这个新功能后,都忍不住发出感叹:这才是ChatGPT的正确打开方式。

AI来当我的眼睛

对于盲人朋友们来说,生活中最大的困难莫过于看不见眼前的事物。

刷牙洗漱、煮饭洗碗、超市购物...

这些咱们眼中,随随便便就能干成的事儿,盲人可能要花大半天熟悉环境,才能不出差错地完成。

如果这时候,能有另一双眼睛,来帮助盲人朋友们观察世界和提供建议,生活肯定会方便得多。

Be My Eyes这款App推出的初衷,正是如此。

在很长一段时间里,这款App都保持着相当单调,但又实用的运营策略。

那就是,让网友们成为志愿者,通过视频通话的方式,来帮助有需要的盲人。

图源:Be My Eyes

由于App本身是公益性质的,加上主要使用人群是盲人,所以软件界面设计做得极其简洁。

点开Be My Eyes,映入眼帘的只有两个按钮。

一个是“我需要视觉帮助”,另一个是“我想要成为志愿者”。

图源:Be My Eyes

只要大伙有善心和耐心,随时都可以成为志愿者,在盲人的视频通话请求中,帮助他们完成某些任务。

比如盲人在过马路时,不清楚道路状况,这时候就能通过Be My Eyes,找到有空的志愿者帮忙看路。

图源:Be My Eyes

比较让人暖心的是啊,目前这App已经有六百多万名志愿者。

理论上,能覆盖里面接近48万盲人的需求。

图源:Be My Eyes

而且小雷看到,绝大多数志愿者都很乐意去帮助盲人。

把自己的眼睛分享给有需要的盲人,自己也能获得快乐和满足。

图源:推特

但大伙都懂的,即使志愿者再多,他们也不是24小时都能在线。

毕竟志愿者们不是工作人员,也得在现实生活中,和各种琐事对线,被工作占据时间。

盲人朋友很难像找人工客服那样,随时都能联系上对方。

而且从盲人的角度出发,他们肯定也不想啥事都麻烦志愿者。

所以目前的情况是,Be My Eyes虽然能很大程度上,帮助盲人辨别环境事物。

但却无法做到无时无刻,有求必应。

图源:Be My Eyes

本来,这个问题是个无解题。

但在GPT-4模型出来后,Be My Eyes总算找到了新的方法。

相比GPT-3.5更先进,GPT-4能处理更复杂的语言任务,这都是新模型的基本操作...

而它最狠的一项特性,莫过于“多模态输入”,说人话就是能看懂图片了。

比如发送下面这张图片给AI模型,问她有啥好笑的地方,它真的能理解图片,并根据问题来回答我们。

图源:medium.com

GPT-4这个特性,让Be My Eyes背后的公司大受震撼。

“要是把这模型集成到咱们的App上,不就能做到24小时为盲人识别环境物体了吗?”

说干就干啊,最近Be My Eyes就把GPT-4模型塞进了App里。

这样一来,盲人用户随时都可以发送图片给App里的“虚拟志愿者”,让它识别照片里有什么物品。

图源:Be My Eyes

当然啦,简单的识物功能,现在很多App都能做到。

而GPT-4加持的“虚拟志愿者”,则有着更强的理解和对话能力。

比如在识别物体上,它能识别出用户发送的图片里,有哪些衣服。

甚至连衣服的材料和颜色能描述出来,最后还不忘给用户提供建议。

如果AI没能提供满意的答案,用户还能点击底部的【寻求真人志愿者】帮助,App会立刻帮盲人联系其他志愿者。

图源:Be My Eyes

用过ChatGPT的小伙伴们都知道,提供建议只是它最基础的功能。

但把这项特性结合到图片识别中,就显得很牛X了...

比如,把一棵树拍下来发给AI,它不仅识别正确,还会问用户:“你想近距离看还是换个角度看?”

在GPT-4模型的加持下,“虚拟志愿者”还能当图片翻译来用。

有一位盲人去超市购物,拿起一瓶中国制造的陈年花雕酒,接着拍照发给虚拟志愿者。

等待几秒,AI就帮用户翻译出图片信息。

这还不是最离谱的...它甚至把这瓶酒的正确使用姿势都写了出来。

怎么用这瓶酒来做菜,具体的做菜步骤,统统给用户安排上。

不过在日常生活中,盲人的出行和导航同样是个大难题。

主流的百度地图和高德地图,只能给咱们提供一个大的路线框架,要是进入到室内,地图App就无能为力了。

而接入GPT-4的Be My Eyes,如今能做到很精确的室内路线导航。

举个例子,盲人去健身房健身,想找到跑步机在哪个位置。

只需把图片拍下来,发给“虚拟志愿者”,他会给用户解释跑步机的具体摆放位置。

在坐地铁这一出行场景中,“虚拟志愿者”也能通过用户拍下来的地铁路线,提供详细的途径站点。

等以后App完善并大面积铺开,盲人出行将会方便得多,很多事儿拍个照就能解决,无需走两步问一人。

更重要的是,这个功能对所有使用App的盲人免费开放,而API的接口费用,则由公司自行承担...

最后

小雷仍记得ChatGPT刚被推出时,满世界都在为此欢呼,直呼这是真正能改变世界的AI。

但是怎么改变呢?它又能带来什么?似乎很多企业和开发者都没想得太深入。

“这玩意儿知识量爆炸,那就用来开发个学外语的工具呗”。“它回复速度那么快,说话又很像人类,拿来当智能客服多省钱”。“还有做表格、总结论文生成摘要、写文案...”

大多数人都把ChatGPT当做生产力工具来使用,这也无可厚非。

但回过头一看,居然有公司把GPT-4的特性,应用在了辅助盲人识别环境的场景上,这何尝不是科技造福人类的一大表现呢?

小雷瞅见,在Be My Eyes官宣该新功能的评论区下,聚集了一大批夸夸党。

有人说,这是他见过最强的ChatGPT应用之一。

图源:推特

还有人表示,这才是ChatGPT最正确的使用姿势。

图源:推特

而小雷则有个不成熟的想法,如果能把“虚拟志愿者”的功能移植到智能眼镜上,说不定体验会更加炸裂。

假如以后GPT-100技术更先进了,能实时识别每一帧的画面并描述出来。

接着让盲人带上具有GPT-100特性的智能眼镜,再配合蓝牙耳机,把AI看到的画面,用语言转述给盲人。

或许,这才是盲人真正的“第二双眼睛”。

当然啦,实现实时画面识别,是需要超高算力支撑的,目前的ChatGPT也还没做到这个程度。

但总的来说,科技的发展,确实让咱们的生活变得更美好了,希望以后能有更多无障碍应用出现吧。

推荐内容