苹果这次其实有重大升级!嘿嘿,接下来看好了!(组图)
下周,苹果就要召开今年秋季第二轮发布会,重点当然是久等的 iPhone 12 啦。
只是机哥想起,上个月发布的 iPad Air 4,至今还没有发售……
毕竟 iPhone 12 可能搭载的 A14 Bionic 芯片,抢先在 iPad Air 4 身上发布。机哥原本还以为能提前看看 A14 究竟有多厉害呢。
而且这次苹果也给 iPad 系列第一次搞起了多彩配色,机哥瞅见,有网友说 iPad Air 4 也许不仅抢发芯片,可能还抢发 iPhone 12 的机身配色。
于是有大神,自己动手做了一张渲染图,还似模似样:
(非官方)
这么一说,再加上全面屏、支持 2 代磁吸式 Apple Pencil、换上 USC-C 接口,其实 iPad Air 4 的更新幅度还挺大的嘛~
但是,机哥要说但是了。在我看来,iPad 今年最大的「创新」,并不是硬件,反而是软件。
没错,机哥说的就是iPadOS 14。甚至我觉得隔壁 iOS 14 那些小组件、App 资源库的新功能,只能说是「更新」,而不能说是「创新」。
因为苹果今年在 iPad 的系统上,做出来一个很酷炫的功能:随手写。更新到 iPadOS 14 之后,机哥只要在系统里看到有能够输入的地方,都可以直接拿 Apple Pencil 往上面写。
然后系统就会自动把我们手写的笔迹,转成文本。
然后输入之后,还能仅用一根笔,完成文字的框选、删除、插入、空格等,以前要用键盘才能完成的操作。
But,是不是乍这么一听,觉得平平无奇?
你们的内心OS,大概想吐槽:就这?这也能叫创新?
嘿嘿,接下来看好了。
如果机哥在 iPad 自带的备忘录 App 里手写,我不仅可以像正常的文本那样,选择某一个字、甚至选中某一段话,然后复制到别的 App。
要知道,这可是手写的字,并不是电子文本啊。
这还不算最神奇的!
最流弊的地方是,如果机哥写下一个网址,长按它,能直接打开那个网站。
类似的,如果是手写的电话号码,能直接拨打。
手写的日期时间,能直接建立日程安排、待办事项等等。
……
但是,iPadOS 14 这个功能,不仅是全局支持自动转换,而且还支持中英文混写。
大家想想看,每个人的笔迹都不一样、写字的力度不一样、每个人的笔画习惯也不一样,如果还夹杂着字母、数字、标点符号,这识别起来的难度可想而知。
辣么,这么复杂的功能,苹果是怎么做到的呢?
刚好前不久,苹果副总 Craig Federighi 接受采访时,曝光了苹果是怎么实现它的。(就是之前主持发布会的那位)
以前也有别的公司做类似的东西,但他们往往是直接拿现有的笔迹来扫描和分析。
机哥举个例子吧,咱们现在可以去找出王羲之的真迹,把他写下的每一个扫描出来,然后分析他是怎么写的。然后再用这些数据,生成别的字。你们读小学时,应该没少练字帖吧?
但是,这次是 Craig Federighi 说的但是。
这种方法,满足不了 iPad 这个「随手写」的功能。
因为 iPad 使用的人群,覆盖了全世界多个国家和地区、多种不同人群、多种不同年龄的人、还有各种职业等等等等。简单来说,就是用 iPad 的用户,人与人之间差别太大。
就好比医生写的“天书”,跟咱们普通人写的字,那能一样吗……
(图片来源于网络)
所以苹果才说:
仅靠静态例子是不够的,我们需要查看构成每个字母的笔画。如果您了解笔画以及笔画如何下降,则可以用来消除所写内容的歧义。
机哥猜,这里的笔画,应该不仅仅是把文字拆开,还包括笔画的顺序、笔触的力度等等。
很多时候,同一个字,由不同人写的方法都是不一样的。
只有摸透了绝大部分写字的方法,才能让 iPad「随手写」的识别度到达“能用”的状态。
辣么,苹果的解决方法,机哥觉得虽然不见得新颖,但的确有效。据 Craig Federighi 表示,在开发期间,苹果从世界各地找来了一大群人。
意图很明显啦,是想尽量覆盖不同手写习惯的人群。
然后苹果递给他们一支笔,让他们快速书写、让他们缓慢书写、倾斜书写。emmm,机哥突然想象出一个场景,苹果一群理科男的工程师,对找来的志愿者喊:
“慢一点啦,不要那么快啦~”“对对对,歪一点。”“再用力一点……”
然后再用机器学习,分析这些数据,才知道这“鬼画符”写的是什么。
最终,当 iPad 越来越懂世界各地的人写字的方法,无论是中文还是英文,它通通能够识别出来。
值得一提的是,目前 iPadOS 14.0 的「随手写」,第一批只开放了英文、简体中文和繁体中文。看来库克还是很重视中国市场的嘛~
而且不知道是不是巧合,苹果两任 CEO 都学过书法。呐,库克写的毛笔字,其实也就那样……
而乔布斯也曾经透露,Mac 电脑字体最初的设计灵感,来源于他大学时上的书法课。
机哥这么一瞅,两任 CEO 都那么喜欢手写,今年 iPadOS 14 在手写这件事情上,花那么大的人力、物力、财力去做「随手写」,好像也不奇怪了…
玩笑归玩笑,不管是基于什么原因要做这个功能,现在我们用起来方便就行啦。不过嘛,像这种“拼人头”,从全世界找到 N 个不同的人,收集他们的数据,最终开发出一项新功能,类似的事情苹果也不是第一次干了。
比如说,AirPods 的前身:EarPods。它是在 2012 年,跟随 iPhone 5 一起发布的。
我们都知道,每个人的耳朵轮廓,其实都是不一样的。
辣么,耳机要想戴得舒服,最好就是贴合耳朵的轮廓。
于是苹果号称找了成千上万人,然后 3D 扫描他们的耳廓,最终设计出符合绝大部分人耳朵的 EarPods 设计。所以当年 EarPods 前前后后折腾了 3 年,才开发出来。
后来的 AirPods、AirPods Pro,都是在这个基础上改良而来的。
所以说,要搞出一个好东西,要不就砸钱、要不就砸人……
另一个例子嘛,则是我们天天都在用的 Siri。
还记得去年,因为 Siri 在收集用户的对话来优化自己的准确度,闹出了一场隐私门,当时机哥也有写过文章。后来苹果出公告说,收集的过程使用的是差分隐私技术,所以数据不会对应某个用户,然后随着 iOS 13 的更新,也支持删除 Siri 的数据。
但这件事情也可以看出,要做一个 AI 人工智能,还是要拿成千上万的数据,喂进去让机器分析,才能做出来。
而像 Apple Watch 的洗手提醒、运动姿势分析等等,苹果在公司内部有个实验室,是专门请人来做各种姿势……
最终经过机器学习、建模,才出现我们现在手表上各种健康检测功能。
(图片来源于网络)
机哥也不得不感慨,现在要做一个符合大部分人使用习惯的产品,太不容易了。其实要想符合全世界 70 亿人的产品,最好的方法就是把 70 亿人都拉来调研,然后总能开发出贴合每个人的产品。
但是这肯定不符合现实~所以各大科技公司,就要在条件允许的情况下,尽量多的、拉不同的人来调研。
其实上面那么多苹果的例子,只是一个缩影,别的科技公司也一样。做耳机的,像 OPPO、vivo、小米,也有找志愿者来对他们的耳朵进行 3D 建模。
做语音助手的,像微软、谷歌、亚马逊,都是工程师从海量的数据中,不断拿出来优化的。其他硬件或软件也都一样,尽可能多的测试和实验。
而我们今天能用到那么多数码产品,背后都有无数工程师和无数志愿者的努力。这么想想,机哥觉得每个数码产品,确实都挺有重量的呢~