logo好方法网

图像生成方法及装置


技术摘要:
本申请公开了一种图像生成方法及装置。该方法包括:获取拍摄目标的第一图像和用于指示拍摄第一图像时照射光源与拍摄目标相对位置关系的第一环境光角度;获取根据拍摄目标的深度信息、多个第二图像和第一打光信息融合生成的第一3D模型;多个第二图像为从拍摄目标的多个  全部
背景技术:
随着终端设备技术的不断发展,终端设备上可以设置多个摄像装置,多个摄像装 置可以包括前置摄像头,用户可以利用该前置摄像头进行自拍。不过,当处于暗光环境时, 由于光线不足,自拍得到的图像的立体感和皮肤细节通常会缺失,噪点较多,用户体验较 差。 目前,为了避免光线不足影响自拍效果,通常会通过终端设备的显示屏或内置补 光灯进行补光,具体的,在用户自拍时,终端设备可以检测拍摄环境的环境光亮度,当环境 光亮度小于设定的亮度阈值时,可以通过点亮终端设备的显示屏或开启内置补光灯进行补 光,从而提升图像的拍摄效果。但是,通过显示屏或内置补光灯进行补光,人脸只能局部受 光,且亮度有限,自拍得到的图像立体感和皮肤细节仍然会缺失,自拍效果仍然较差。此外, 还可以通过外接补光设备的方式进行补光,此种方式下,自拍效果较好,但是需要用户自行 设置补光设备,携带不便,用户体验较差。基于此,如何简单高效的消除光线不足对自拍图 像中皮肤细节和立体感的影响,成为本领域技术人员亟待解决的技术问题。
技术实现要素:
本申请提供了一种图像生成方法及装置,以解决如何简单高效的消除光线不足对 自拍图像中皮肤细节和立体感影响的问题。 第一方面,本申请提供了一种图像生成方法,该方法包括:获取拍摄目标的第一图 像和第一环境光角度;所述第一图像为所述拍摄目标的三维图像;所述第一环境光角度用 于指示拍摄所述第一图像时拍摄环境中的照射光源与所述拍摄目标之间的相对位置关系; 获取第一3D模型;所述第一3D模型为根据所述拍摄目标的深度信息、多个第二图像和第一 打光信息,融合生成的所述拍摄目标的3D模型;所述多个第二图像是指从所述拍摄目标的 多个角度拍摄所述拍摄目标得到的多个二维图像;所述第一打光信息包括第一光照角度和 第一光强,所述第一光照角度等于所述第一环境光角度,所述第一光强对应的亮度大于等 于预设亮度阈值;根据所述第一图像和所述第一3D模型,融合生成所述拍摄目标的第三图 像。 采用本实现方式的技术方案,可以获取拍摄目标的第一图像和第一图像对应的第 一环境光角度,并且可以获取根据拍摄目标的深度信息、多个第二图像和根据亮度足够的 打光光源从第一环境光角度对所述拍摄目标打光的打光信息融合生成的第一3D模型,然后 可以根据第一图像和第一3D模型生成拍摄目标的第三图像。也就是说,采用该技术方案,用 户使用终端设备在暗光的环境中自拍时,终端设备可以使用根据拍摄目标的深度信息、多 个第二图像和根据亮度足够的打光光源从第一环境光角度对所述拍摄目标打光的打光信 息生成的3D模型,与实际拍摄的三维图像进行融合,从而使得实际得到的自拍图像立体感 5 CN 111556255 A 说 明 书 2/16 页 和细节效果更好,不会产生立体感和皮肤细节缺失的现象,用户体验更好。 结合第一方面,在第一方面第一种可能的实现方式中,获取第一3D模型,包括:获 取预置的第二3D模型;所述第二3D模型为根据所述深度信息和所述多个第二图像融合生成 的所述拍摄目标的3D模型;获取所述第一打光信息;根据所述第一打光信息和所述第二3D 模型融合生成所述第一3D模型。 本实现方式中,可以获取预置的第二3D模型和第一打光信息,然后根据第一打光 信息和第二3D模型融合生成第一3D模型,得到的第一3D模型更加准确,后续拍摄生成的图 像的立体感和皮肤细节更加丰富,用户体验更好。 结合第一方面,在第一方面第二种可能的实现方式中,所述方法还包括:获取所述 深度信息;获取所述多个第二图像;根据所述深度信息和所述多个第二图像融合生成所述 第二3D模型。 本实现方式中,首先根据拍摄目标的深度信息和多个角度获得的拍摄目标的二维 信息生成拍摄目标的第二3D模型,然后根据与第一环境光角度对应的打光信息和第二3D模 型生成第一3D模型,得到的第一3D模型更加准确,后续拍摄生成的图像的立体感和皮肤细 节更加丰富,用户体验更好。 结合第一方面,在第一方面第三种可能的实现方式中,所述获取第一3D模型,包 括:从预置的多个第三3D模型中获取所述第一3D模型;所述多个第三3D模型为根据所述深 度信息、所述多个第二图像和多个第二打光信息生成的多个所述拍摄目标的3D模型;每一 个所述第二打光信息包含一个不同的第二光照角度;所述第一3D模型为与所述第一环境光 角度相同的第二光照角度对应的第三3D模型。 本实现方式中,可以根据角度匹配的方式,从预置的多个第三3D模型中获取第一 3D模型,使用本实现方式的方法,可以简单快速地获取到第一3D模型,从而快速获得立体感 和皮肤细节更加丰富的图像,适用性较好。 结合第一方面,在第一方面第四种可能的实现方式中,获取拍摄目标的第一图像 和第一环境光角度,包括:获取所述拍摄目标的环境光亮度;如果所述环境光亮度小于所述 预设亮度阈值,获取所述拍摄目标的第一图像和第一环境光角度。 本实现方式中,首先获取拍摄目标的环境光亮度;然后当所述环境光亮度小于预 设亮度阈值时,获取拍摄目标的第一图像和第一环境光角度。也就是说,本实现方式的技术 方案中,只有当环境光亮度小于预设亮度阈值时,才会使用本申请提供的技术方案获取图 像,既可以保证暗光环境中拍摄图像的立体感和细节不会缺失,又可以避免造成资源浪费。 结合第一方面,在第一方面第五种可能的实现方式中,所述方法还包括:在所述第 一3D模型上标定关键点;根据所述第一图像和所述第一3D模型,融合生成所述拍摄目标的 第三图像,包括:对所述第一图像与所述第一3D模型进行所述关键点的匹配;根据匹配后的 所述第一图像与所述第一3D模型融合生成所述第三图像。 本实现方式中,结合关键点匹配技术,将实际拍摄的第一图像和第一3D模型融合 为实际需要的图像,得到的图像的立体感和细节更加丰富,用户体验更好。 第二方面,本申请提供了一种图像生成装置,该装置包括:第一获取模块,用于获 取拍摄目标的第一图像和第一环境光角度;所述第一图像为所述拍摄目标的三维图像;所 述第一环境光角度用于指示拍摄所述第一图像时拍摄环境中的照射光源与所述拍摄目标 6 CN 111556255 A 说 明 书 3/16 页 之间的相对位置关系;第二获取模块,用于获取第一3D模型;所述第一3D模型为根据所述拍 摄目标的深度信息、多个第二图像和第一打光信息,融合生成的所述拍摄目标的3D模型;所 述多个第二图像是指从所述拍摄目标的多个角度拍摄所述拍摄目标得到的多个二维图像; 所述第一打光信息包括第一光照角度和第一光强,所述第一光照角度等于所述第一环境光 角度,所述第一光强对应的亮度大于等于预设亮度阈值;融合模块,用于根据所述第一图像 和所述第一3D模型,融合生成所述拍摄目标的第三图像。 本实现方式的装置,可以获取拍摄目标的第一图像和第一图像对应的第一环境光 角度,并且可以获取根据拍摄目标的深度信息、多个第二图像和根据亮度足够的打光光源 从第一环境光角度对所述拍摄目标打光的打光信息融合生成的第一3D模型,然后可以根据 第一图像和第一3D模型生成拍摄目标的第三图像。也就是说,用户使用该装置在暗光的环 境中自拍时,可以使用根据拍摄目标的深度信息、多个第二图像和根据亮度足够的打光光 源从第一环境光角度对所述拍摄目标打光的打光信息生成的3D模型,与实际拍摄的三维图 像进行融合,从而使得实际得到的自拍图像立体感和细节效果更好,不会产生立体感和皮 肤细节缺失的现象,用户体验更好。 结合第二方面,在第二方面第一种可能的实现方式中,所述第二获取模块具体用 于:获取预置的第二3D模型;所述第二3D模型为根据所述深度信息和所述多个第二图像融 合生成的所述拍摄目标的3D模型;获取所述第一打光信息;根据所述第一打光信息和所述 第二3D模型融合生成所述第一3D模型。 本实现方式的装置,可以获取预置的第二3D模型和第一打光信息,然后根据第一 打光信息和第二3D模型融合生成第一3D模型,使用本实现方式的装置,得到的第一3D模型 更加准确,后续拍摄生成的图像的立体感和皮肤细节更加丰富,用户体验更好。 结合第二方面,在第二方面第二种可能的实现方式中,所述融合模块还用于:获取 所述深度信息;获取所述多个第二图像;根据所述深度信息和所述多个第二图像融合生成 所述第二3D模型。 本实现方式的装置,首先根据拍摄目标的深度信息和多个角度获得的拍摄目标的 二维信息生成拍摄目标的第二3D模型,然后根据与第一环境光角度对应的打光信息和第二 3D模型生成第一3D模型,得到的第一3D模型更加准确,后续拍摄生成的图像的立体感和皮 肤细节更加丰富,用户体验更好。 结合第二方面,在第二方面第三种可能的实现方式中,所述第二获取模块具体用 于:从预置的多个第三3D模型中获取所述第一3D模型;所述多个第三3D模型为根据所述深 度信息、所述多个第二图像和多个第二打光信息生成的多个所述拍摄目标的3D模型;每一 个所述第二打光信息包含一个不同的第二光照角度;所述第一3D模型为与所述第一环境光 角度相同的第二光照角度对应的第三3D模型。 本实现方式的装置,可以根据角度匹配的方式,从预置的多个第三3D模型中获取 第一3D模型,使用本实现方式的装置,可以简单快速地获取到第一3D模型,从而快速获得立 体感和皮肤细节更加丰富的图像,适用性较好。 结合第二方面,在第二方面第四种可能的实现方式中,所述第一获取模块具体用 于:获取所述拍摄目标的环境光亮度;如果所述环境光亮度小于所述预设亮度阈值,获取所 述拍摄目标的第一图像和第一环境光角度。 7 CN 111556255 A 说 明 书 4/16 页 本实现方式的装置,首先获取拍摄目标的环境光亮度;然后当所述环境光亮度小 于预设亮度阈值时,获取拍摄目标的第一图像和所述第一图像对应的第一环境光角度。也 就是说,该装置只有当环境光亮度小于预设亮度阈值时,才会使用本申请提供的技术方案 获取图像,既可以保证暗光环境中拍摄图像的立体感和细节不会缺失,又可以避免造成资 源浪费。 结合第二方面,在第二方面第五种可能的实现方式中,所述装置还包括:标定模 块,用于在所述第一3D模型上标定关键点;所述融合模块具体用于:对所述第一图像与所述 第一3D模型进行所述关键点的匹配;根据匹配后的所述第一图像与所述第一3D模型融合生 成所述第三图像。 本实现方式的装置,结合关键点匹配技术,将实际拍摄的第一图像和第一3D模型 融合为实际需要的图像,得到的图像的立体感和细节更加丰富,用户体验更好。 第三方面,本申请实施例提供一种装置,所述装置包括处理器,当所述处理器执行 存储器中的计算机程序或指令时,如第一方面所述的方法被执行。 第四方面,本申请实施例提供一种装置,所述装置包括处理器和存储器,所述存储 器用于存储计算机程序或指令;所述处理器用于执行所述存储器所存储的计算机程序或指 令,以使所述装置执行如第一方面中所示的相应的方法。 第五方面,本申请实施例提供一种装置,所述装置包括处理器、存储器和收发器; 所述收发器,用于接收信号或者发送信号;所述存储器,用于存储计算机程序或指令;所述 处理器,用于从所述存储器调用所述计算机程序或指令执行如第一方面所述的方法。 第六方面,本申请实施例提供一种装置,所述装置包括处理器和接口电路;所述接 口电路,用于接收计算机程序或指令并传输至所述处理器;所述处理器运行所述计算机程 序或指令以执行如第一方面所示的相应的方法。 第七方面,本申请实施例提供一种计算机存储介质,所述计算机存储介质用于存 储计算机程序或指令,当所述计算机程序或指令被执行时,使得第一方面所述的方法被实 现。 第八方面,本申请实施例提供一种包括计算机程序或指令的计算机程序产品,当 所述计算机程序或指令被执行时,使得第一方面所述的方法被实现。 为解决如何简单高效的消除光线不足对自拍图像中皮肤细节和立体感影响的问 题,本申请提供了一种图像生成方法及装置。该方法中,可以获取拍摄目标的第一图像和第 一图像对应的第一环境光角度,并且可以获取根据拍摄目标的深度信息、多个第二图像和 根据亮度足够的打光光源从所述第一环境光角度对所述拍摄目标打光的打光信息生成的 第一3D模型,然后可以根据第一图像和第一3D模型生成拍摄目标的第三图像。采用该方法, 用户使用终端设备在暗光的环境中自拍时,终端设备可以使用根据拍摄目标的深度信息、 多个第二图像和根据亮度足够的打光光源从第一环境光角度对所述拍摄目标打光的打光 信息生成的3D模型,与实际拍摄的三维图像进行融合,从而使得实际得到的自拍图像立体 感和细节效果更好,不会产生立体感和皮肤细节缺失的现象,用户体验更好。 附图说明 图1为本申请提供的图像生成方法的一种实施方式的流程示意图; 8 CN 111556255 A 说 明 书 5/16 页 图2为本申请提供的获取第一3D模型的方法的一种实施方式的流程示意图; 图3为本申请提供的获取第一3D模型的方法的另一种实施方式的流程示意图; 图4为本申请提供的获取第一3D模型的方法的另一种实施方式的流程示意图; 图5为本申请提供的图像生成装置的一种实施方式的结构框图; 图6为本申请提供的芯片的一种实施方式的结构框图。
下载此资料需消耗2积分,
分享到:
收藏