如果大家之前有看小雷写的“ChatGPT”文章,应该会对这个新鲜前沿的自然语言模型,有个大概了解。
(资料图)
前几天,小雷也借着GPT-4发布的热度,和大伙盘点了,那些目前已经接入ChatGPT AI且成功落地运行的应用。
和很多人预料的一样, 随着ChatGPT接口的开放,很多公司得以调用其能力,让自家产品如虎添翼。
比如有人开发【视频总结】网站,在你没空看长视频时,帮你在几秒内总结出视频核心主题。
图源:ChatYoutube
还有人用万能的ChatGPT API,做了个【和文档聊天】网站。
把看不懂,或者不想全部看完的PDF文档扔进去,它能给咱们提取、定位和总结信息。
而且整个过程是“你问它答”,像是一位全知全能的智能助理,有求必应。
图源:小雷哔哔
但怎么说呢,现在ChatGPT被应用的大方向,我总感觉不太对劲。
无论是科技巨头,还是身边的普通人,都会不自觉把它和生产力的提升挂钩。
事实也是如此,很多调用ChatGPT API的产品,本质上还是往生产力和效率上内卷。
图源:小雷哔哔
以至于,小雷身边一些在互联网公司做文案策划的朋友,开始担心本职要被AI所替代。
这其实不是坏事儿,用得好的话,确实能提高工作效率,实现提前摸鱼。
今天文章的提纲,就有ChatGPT的功劳
但小雷认为,科技的发展,不仅仅是为了更好地工作。
也许在人文关怀和生活上,ChatGPT也能为咱们做点什么...
恰好我最近看到,有一家专注于做盲人公益App的公司,就把自家App和GPT-4技术相结合,推出了 Virtual Volunteer功能。
不夸张地说,这功能犹如盲人的另一双眼,能帮他们“看清”世界。
图源:OpenAI。
没错,AI现在能帮盲人们识别生活中各种物体了。
有网友看到这个新功能后,都忍不住发出感叹 :这才是ChatGPT的正确打开方式。
对于盲人朋友们来说,生活中最大的困难莫过于看不见眼前的事物。
刷牙洗漱、煮饭洗碗、超市购物...
这些咱们眼中,随随便便就能干成的事儿,盲人可能要花大半天熟悉环境,才能不出差错地完成。
如果这时候,能有另一双眼睛,来帮助盲人朋友们观察世界和提供建议,生活肯定会方便得多。
Be My Eyes这款App推出的初衷,正是如此。
在很长一段时间里,这款App都保持着相当单调,但又实用的运营策略。
那就是,让网友们成为志愿者,通过视频通话的方式,来帮助有需要的盲人。
图源:Be My Eyes
由于App本身是公益性质的,加上主要使用人群是盲人,所以软件界面设计做得极其简洁。
点开Be My Eyes,映入眼帘的只有两个按钮。
一个是“ 我需要视觉帮助 ”,另一个是“ 我想要成为志愿者 ”。
图源:Be My Eyes
只要大伙有善心和耐心,随时都可以成为志愿者,在盲人的视频通话请求中,帮助他们完成某些任务。
比如盲人在过马路时,不清楚道路状况,这时候就能通过Be My Eyes,找到有空的志愿者帮忙看路。
图源:Be My Eyes
比较让人暖心的是啊,目前这App已经有六百多万名志愿者。
理论上,能覆盖里面接近48万盲人的需求。
图源:Be My Eyes
而且小雷看到,绝大多数志愿者都很乐意去帮助盲人。
把自己的眼睛分享给有需要的盲人,自己也能获得快乐和满足。
图源:推特
但大伙都懂的,即使志愿者再多,他们也不是24小时都能在线。
毕竟志愿者们不是工作人员,也得在现实生活中,和各种琐事对线,被工作占据时间。
盲人朋友很难像找人工客服那样,随时都能联系上对方。
而且从盲人的角度出发,他们肯定也不想啥事都麻烦志愿者。
所以目前的情况是,Be My Eyes虽然能很大程度上,帮助盲人辨别环境事物。
但却无法做到 无时无刻,有求必应。
图源:Be My Eyes
本来,这个问题是个无解题。
但在GPT-4模型出来后,Be My Eyes总算找到了新的方法。
相比GPT-3.5更先进,GPT-4能处理更复杂的语言任务,这都是新模型的基本操作...
而它最狠的一项特性,莫过于“ 多模态输入”, 说人话就是能看懂图片了。
比如发送下面这张图片给AI模型,问她有啥好笑的地方,它真的能理解图片,并根据问题来回答我们。
图源:medium.com
GPT-4这个特性,让Be My Eyes背后的公司大受震撼。
“要是把这模型集成到咱们的App上,不就能做到24小时为盲人识别环境物体了吗?”
说干就干啊,最近Be My Eyes就把GPT-4模型塞进了App里。
这样一来,盲人用户随时都可以发送图片给App里的“ 虚拟志愿者 ”,让它识别照片里有什么物品。
图源:Be My Eyes
当然啦,简单的识物功能,现在很多App都能做到。
而GPT-4加持的“虚拟志愿者”,则有着更强的理解和对话能力。
比如在识别物体上,它能识别出用户发送的图片里,有哪些衣服。
甚至连衣服的材料和颜色能描述出来 ,最后还不忘给用户提供建议。
如果AI没能提供满意的答案,用户还能点击底部的【寻求真人志愿者】帮助,App会立刻帮盲人联系其他志愿者。
图源:Be My Eyes
用过ChatGPT的小伙伴们都知道,提供建议只是它最基础的功能。
但把这项特性结合到图片识别中,就显得很牛X了...
比如,把一棵树拍下来发给AI,它不仅识别正确,还会问用户: “你想近距离看还是换个角度看?”
在GPT-4模型的加持下,“虚拟志愿者”还能当图片翻译来用。
有一位盲人去超市购物,拿起一瓶中国制造的陈年花雕酒,接着拍照发给虚拟志愿者。
等待几秒,AI就帮用户翻译出图片信息。
这还不是最离谱的...它甚至把这瓶酒的正确使用姿势都写了出来。
怎么用这瓶酒来做菜,具体的做菜步骤,统统给用户安排上。
不过在日常生活中,盲人的出行和导航同样是个大难题。
主流的百度地图和高德地图,只能给咱们提供一个大的路线框架,要是进入到室内,地图App就无能为力了。
而接入GPT-4的Be My Eyes,如今能做到很精确的室内路线导航。
举个例子,盲人去健身房健身,想找到跑步机在哪个位置。
只需把图片拍下来,发给“虚拟志愿者”,他会给用户解释跑步机的具体摆放位置。
在坐地铁这一出行场景中,“虚拟志愿者”也能通过用户拍下来的地铁路线,提供详细的途径站点。
等以后App完善并大面积铺开,盲人出行将会方便得多,很多事儿拍个照就能解决,无需走两步问一人。
更重要的是,这个功能对所有使用App的盲人免费开放,而API的接口费用,则由公司自行承担...
小雷仍记得ChatGPT刚被推出时,满世界都在为此欢呼,直呼这是真正能改变世界的AI。
但是怎么改变呢?它又能带来什么?似乎很多企业和开发者都没想得太深入。
“这玩意儿知识量爆炸,那就用来开发个学外语的工具呗”。
“它回复速度那么快,说话又很像人类,拿来当智能客服多省钱”。
“还有做表格、总结论文生成摘要、写文案...”
大多数人都把ChatGPT当做生产力工具来使用,这也无可厚非。
但回过头一看,居然有公司把GPT-4的特性,应用在了辅助盲人识别环境的场景上,这何尝不是科技造福人类的一大表现呢?
小雷瞅见,在Be My Eyes官宣该新功能的评论区下,聚集了一大批夸夸党。
有人说,这是他见过最强的ChatGPT应用之一。
图源:推特
还有人表示,这才是ChatGPT最正确的使用姿势。
图源:推特
而小雷则有个不成熟的想法,如果能把“虚拟志愿者”的功能移植到智能眼镜上,说不定体验会更加炸裂。
假如以后GPT-100技术更先进了,能实时识别每一帧的画面并描述出来。
接着让盲人带上具有GPT-100特性的智能眼镜,再配合蓝牙耳机,把AI看到的画面,用语言转述给盲人。
或许,这才是盲人真正的“第二双眼睛”。
当然啦,实现实时画面识别,是需要超高算力支撑的,目前的ChatGPT也还没做到这个程度。
但总的来说,科技的发展,确实让咱们的生活变得更美好了,希望以后能有更多无障碍应用出现吧。
标签:
免责声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。如稿件版权单位或个人不想在本网发布,可与本网联系,本网视情况可立即将其撤除。