手机拍照全靠猜为什么你的手机总拍不出真实的照片,拍照最接近真实的手机

时间拉回到 2021 年 12 月,少数派团队在大理团建的那一周,几乎每天晚上都会有人跑上露台,尝试用各种各样的设备记录洱海上方那片澄澈的星空。
在这当中,几台 Google Pixel 设备

本文最后更新时间:  2023-03-27 15:24:36

时间拉回到 2021 年 12 月,少数派团队在大理团建的那一周,几乎每天晚上都会有人跑上露台,尝试用各种各样的设备记录洱海上方那片澄澈的星空。

在这当中,几台 Google Pixel 设备的表现最为亮眼。以往我们总在感叹计算摄影的魅力,但只有用白天刷微博、刷抖音的那台手机捕捉到璀璨星河的那一刻,才真正明白算法的精妙与魅力。

惊叹之余,团队里一直主力使用 Google Pixel 的几位编辑也跟我聊到过一些有意思的细节:在计算摄影这件事情上,即便是一直以来被业界奉为圭臬的 Google Pixel,其实也有一些至今难以克服的短板。这当中最具代表性问题就包括偏色,这是一个从 Google Pixel 4 开始就有提及、但一直到最近的 Google Pixel 6 都没能得到有效解决的问题。

夜视算法加持下(右)画面色彩相比肉眼观感(左)存在明显偏色 | 图:Clyde 使用 Google Pixel 4 拍摄

即便是开头提到的那些星空样张也一样——对 Google 这样的计算摄影老牌劲旅来说,色彩还原也是个难以完全靠算法来解决的难题。为了让算出来的星空更加符合观感审美,在 Google 相册中的图片修饰功能中,Google 甚至还为夜视模式的照片准备了一套「天文滤镜」用于后期色彩修饰。

那色彩还原这件事为什么这么难?

问题的根源在于「猜」

如果往希腊语词根的方向去理解,照片的英文是 Photograph 按字面意思可以被理解为「用光所作的画」。在摄影这件事情上,最初我们用来「作画」的载体是胶片,记录在底片上的光线信息需要经过化学冲洗才能显影;以光电二极管为核心的 CCD 与 CMOS 出现后,效率更高的光电信号转换则成为了主流。

但无论是 CCD 还是智能手机中更常见的 CMOS,受光电二极管的工作原理所限,它们都只能根据光照强度记录不同的亮度信息。换句话说,通过传感器所接收到的光电信号,仅仅只能还原出一张黑白照片。

为了让传感器捕捉到有色彩的光照信息,色彩滤波阵列(CFA)出现了。

常见的色彩滤波阵列:拜尔阵列 | 图:维基百科

你可以将 CFA 理解为光线在到达传感器之前的一层「滤镜」,以应用最为广泛的拜尔阵列滤色镜为例,拜尔阵列以 2 个绿色像素、1 个红色像素和 1 个蓝色像素为单元,通过滤镜的光线除了能够在传感器上留下强度信息外,还能同时保留对应的色彩信息。值得注意的是,因为每个像素只过滤并记录红、绿、蓝三种颜色中的一种,这些从单个像素获取的信息其实也不能完整反映画面中不同颜色的组成方式。

光线通过阵列后留下不同色彩信息 | 图:维基百科

换句话说,画面细节的丢失从我们按下手机快门键的那一刻就已经开始了。为了得到一张色彩完整的图像,通过拜尔阵列获取到的色彩信息后续还会依靠去马赛克算法进行插值、重建。如果像下图这样采用邻近像素平均值的算法,根据已采集像素对周边缺失的像素色彩信息进行推测,完成整个去马赛克过程后,重建得到的画面甚至会占据整个画面的 2/3。

将拜尔阵列得到的色彩信息还原的过程,也是细节丢失的过程 | 图:Google

因为「猜」的成分不可避免,最终得到的图像一般而言是无法准确还原原始拍摄场景的。即便在邻近像素平均值算法的基础之上,后续也衍生出了许多更为复杂的去马赛克算法,但「通过 CFA 获取到的色彩信息有限」这个大前提始终摆在这里。

另一方面,尽管近年很多厂商都在尝试其它的 CFA 排列方式,比如华为的 RYYB、OPPO 在 2014 年基于 QuadBayer 阵列的 RGBW,这些排列方式相比传统的拜尔阵列更多地也是在提高传感器进光量,符合前几年手机厂商在夜景拍摄这件事情上「血腥厮杀」的目标,但从实际的情况来看,纯粹靠算法猜,对解决色彩还原问题这件事并没有多大帮助。

以 Google Pixel 为鉴

明确「因为照片都是猜的所以色彩还原很难」这个基本事实后,我们再回到文章开头提到的手机计算摄影巨擘 Google Pixel。如果要说 Google Pixel 诞生后这 6 年时间里,为手机行业计算摄影发展留下的、最为宝贵的经验是什么,个人认为有两点:利用好一切可用算法资源的变通性,以及垂直整合硬件的能力。

关于第一点,最好的例子是 Google Pixel 3 时引入的 Super Res Zoom(超分) —— 就是 Google 还在用单摄「吊打」其他厂商双摄长焦的那一代。

在解决数字变焦对画面进行裁剪、重建进而造成细节丢失这个问题时,Google 相机团队首先想到的切入点也是上文提到的 CFA 滤镜。不过相比于其他同行,Google 的工程师选择了 DRIZZLE —— 一种在天文摄影学中已经流行了数十年的常用拍摄技巧。DRIZZLE 通过捕捉并合成多张拍摄角度略有变化的照片,来实现 2x 甚至 3x 的数字变焦效果,基本理念是将多张低分辨率的连拍照片直接合并对齐到更高分辨率的像素网格中。具体的合并对齐流程如下:

通过平移的方法进行像素补全 | 图:Google

至于垂直整合硬件的能力,大家更是有目共睹了。

从第二代 Google Pixel 开始,几乎每一代 Google Pixel 设备(a 系列以及 Pixel 5 除外)都会搭载专门用于图像算法处理的独立芯片,在 Google Pixel 2 上这枚芯片叫做 Pixel Visual Core,在 Pixel 4 上演变成为 Pixel Neural Core,最后来到今年的「大招」——Google Tensor。

原本对传感器型号不怎么「敏感」的 Google Pixel,随着计算摄影需求与功能的不断增加,对独立图像处理芯片的依赖也越来越大,走上自研芯片这条路成为了必然(对下文要提到的 OPPO 来说也是如此)——毕竟在已经将 RAM 从 4GB 提升至 6GB 的前提下,Google Pixel 4 用户依然会时不时遭遇「算力不够杀后台来凑」的情况。

话说回来,既然算法实力和软硬件整合强如 Google Pixel 这样的异类,都依然没能解决文章开头提到的色彩还原问题。近年来紧随其后的国内 Android 厂商还有哪些破题思路呢?

软件不够硬件来补

这里便来到了另一个被更多人看作是「行业标杆」的厂商 —— Apple 了。既然通过传感器采集到的色彩信息难以完整还原,我们不妨再给图像处理器准备一组现实世界中的实际数据作为色彩校准参考。

而关于色彩的校准,其实早有专门的传感器负责采集现实中的色彩数据,早在 2017 年之时 Apple 就在 iPhone X 上的「刘海」矩阵里塞入一颗来自 AMS 的多光谱传感器。这款定制版本的 6 通道多光谱传感器颇有为 iPhone 十周年献礼的意味,其采集的空间色彩数据被用于驱动 True Tone 原彩显示功能,可让手机根据环境光色温来动态调节屏幕显示。

这个功能到今天依然有些新鲜,并且并非这类传感器的唯一用途——就像上面提到的那样,去年发布的 Apple TV 4K 就内置一个神奇的屏幕校色功能:将与 Apple TV 配对的 iPhone 正面紧贴电视屏幕,即可自动校准这块屏幕的内容显示颜色,从这个功能要求 iPhone 配有 Face ID 来看,iPhone 在这个过程中应该就是借着多光谱传感器化身成了一台简单的屏幕校色仪。

而后,在华为 P40、P50 Pro 这样的旗舰机型上,看到了利用多通道多光谱色温传感器辅助拍摄的用法,一方面可以作为环境色彩还原标准,提供白平衡参考,另一方面也顺带解决 RYYB 阵列带来的偏色问题。

OPPO 则在 Find X3 上推出了 10bit 的全链路色彩引擎,从屏幕硬件发力,优化色彩体验,来保证手机拍摄和输出的一体化观感。

Find X5 如何处理色彩难题

以计算摄影领域先驱 Google Pixel,以及华为、Apple 在软硬件协同投入上的经验为参考,OPPO 基于多年深耕影像领域的优势,在 Find X5 上也做了一次软硬件垂直整合。

首先是自然色彩传感器的加入。这次 OPPO 采用的自然色彩传感器,背后主要依靠一个 13 通道的光谱传感器,相当于增加了类似人眼结构的电子视网膜,从硬件层面捕捉精准的颜色,还原真实的环境光源信息,从影像处理的源头为色彩还原提供高精度数据作为参考。

当然,多光谱传感器对于消费者也不是新鲜技术。去年年底发布的华为 P50 Pocket 就能实现紫外线检测功能,也是通过 10 通道光谱传感器完成的。这次 Find X5 系列的 13 通道多光谱传感器应该能把纯色色彩校准得更加准确,这是以往连 iPhone 都做不到的。

自研多年的影像 NPU 芯片「马里亚纳 MariSilicon X」,也将在 Find X5 系列正式搭载,为计算摄影能力带来底层质变。和以往大部分厂商直接从芯片厂商购入 3A 算法、然后进行小修小补的做法不同,OPPO 可以基于马里亚纳 MariSilicon X 做更多、更深入也更灵活的底层开发,借助它高达 18Tops 的算力以及自研 3A 算法,无论是整合来自 13 通道光谱传感器的数据输入,还是在纯色、大面混淆色这类棘手场景下的色彩还原,效果都会有大幅提升。

当然了,最后还有一个色彩输出风格的标定,这就需要一种对自然和审美的长期经验积累了。OPPO Find X5 系列此前已经官宣了和拥有百年历史的哈苏合作,并且也通过了哈苏的自然色彩认证,色彩调试方案对标的是哈苏中画幅相机,实际拍摄的色彩效果非常令人期待。

我们曾经一直以为手机摄影已经很强大了,但基于算法的盲猜效果已经不能满足用户的需求,结合软硬件综合实力的自然色彩时代,才刚刚开始。

为什么华为手机拍照片不真实

中央重点测光,是目前拍照需求最大的一种测光模式,根据风景照和个人旅游照片的需求研发,按照用户将拍摄主体放在取景器中间的习惯进行拍摄的喜好,中央重点测光可以帮你快速锁定重点,拍摄出好看的照片。

2、特写照、艺术照
适用功能:点测光、EV、AE-S
特写照和个人艺术照的拍摄,对于光源的要求其实很重要,不管是曝光还是对焦方式,都需要好的配合,才能拍出好看的照片。所以华为手机拍摄这样的照片,不仅要学会EV、AE-S的使用,还要学会点测光的使用。

点测光,是对很小的区域进行准确的测光,区域外景物的明暗对测光没什么影响,所以测光精准度非常高,如果掌握好,拍出专业级的照片其实很简单,官方也说了这个功能适合摄影师和对摄影技术了解的人使用。

华为手机不仅是拍照方面好用,在办公方面也是一样强大,备忘录中的录音转文字功能,就可以轻松实现录音转文字,但如果是音频文件转文字,还需要使用录音转文字助手,可以在手机应用市场找到。

录音转文字助手,实时录音转文字、音频文件转文字一键搞定,还支持中英文语音对话翻译,让沟通交流无障碍,不要太实用哦。

华为手机拍照那么厉害,为什么就你拍的不好看?如果你对华为手机拍照,还有疑问,可以留言下方,小编会回复的。
现如今,华为手机的拍照实力我们有目共睹,尤其是它的p30系列的新机,其拍摄技术的高度可是世界级的“大佬”。而在近日,小编也收到了不少华为用户(以下简称花粉)的吐槽,大概是说自己早期买的华为手机拍照不够好,令自己不满意。作为资深老花粉的小编对此只想说一句:你的华为手机为什么拍不出优质的照片? 它以下3个拍照功能的具体使用技巧你都会用了吗?

1、莱卡拍摄
首先,打开华为的【相机】,可见屏幕上方有4个个图标选项,然后我们从左往右数起来,点击第3个有些像【胶片】的图标,接下来,我们就启用了华为相机里面的【莱卡模式】了。
这样之后,我们就可以根据自己在拍照方面的风格、喜好,进而选择拍摄【浓艳】或是【柔和】的照片了。不得不说,这样子拍摄出来的关于食物和风景等静物的照片,视觉上的观感相当不错,这是毋庸置疑的。但是,使用经验丰富的小编表示有心得要分享,对于柔和、浓艳这2个效果,其实它们各自也都更适合在不同的需求中使用:

(1)柔和效果——这种效果更加适合拍摄静物,但是静物的范围又比较广,譬如容器、花草树木、水果蔬菜等等。小编经过长时间的接触,个人觉得比起水果蔬菜这些食物性质的静物,柔和模式更适合拍摄容器类、以及风景类的花草树木的拍摄,因为如果色效过于浓重的话,就会有一种“失真”的感觉,以此将照片的美感大大降低。
(2)浓艳效果——同样是适合对静物进行拍摄,但与上述的柔和效果迥然相异,那些可以食用的静物通过浓艳模式的镜头效果,会使照片的成像色彩更加丰富亮眼,由此给人一种充满食欲的感觉,不仅视觉上效果佳,精神上也会有所享受。另外,如果有小伙伴执意想要尝试以这种效果拍摄风景照的话,不要说小编没有“打预防针”,分分钟会被他人说你拍的照片好假、好滤镜PS的既视感哦~

2、夜景拍摄
如果是在夜晚拍照的话,一般都会存在光线不充足的状况,如此一来拍照效果就不堪入目了。其实在这时候,我们只要使用华为相机里面的【夜景模式】就可以拍摄出优质的照片了。因为,夜景模式不仅会根据镜头画面中的环境光线,自动地进行亮度调节,并且在色彩的显现效果上,它同样会智能调节到更为饱满、丰富的状态,尽其所能拍摄出让你觉得满意的照片。

3、人像拍摄
“人像”二字,顾名思义就是为了拍摄人而特别设计的一种模式。通过这个模式拍摄出来的人物照片,会比普通模式或是莱卡模式的效果要好很多,因为它不仅能够把人物的特质表现出来,还能够自动地将环境背景做虚化处理,这一点可以说是特别贴心了。
综上所述,正是小编今天分享的3个华为手机拍照技巧,小
首赞
+1
平台声明

为什么手机拍照拍得一点都不像真人的?

现在智能手机拍照之后,相片都会被自动美颜处理,所以拍出来的照片大多比本人漂亮,有点不太像本人。
温馨提示:内容均由网友自行发布提供,仅用于学习交流,如有版权问题,请联系我们。