UnityShader使用速度映射图实现运动模糊

时间:2021-05-20

本文实例为大家分享了UnityShader实现运动模糊的具体代码,供大家参考,具体内容如下

原理:

像素的当前帧的NDC坐标(x,y值由uv映射而来,z值由深度值映射而来)——(使用_CurrentViewProjectionInverseMartix变换,并除以w分量)—— 像素的世界坐标 ——(使用_PreviousViewProjectionMatrix变换,并除以w分量)—— 像素的前一帧的NDC坐标 —— (当前帧NDC-前一帧NDC)—— 速度

1.此代码挂在摄像机上,使摄像机运动起来

using UnityEngine; using System.Collections; public class Translating : MonoBehaviour { public float speed = 10.0f; public Vector3 startPoint = Vector3.zero; public Vector3 endPoint = Vector3.zero; public Vector3 lookAt = Vector3.zero; public bool pingpong = true; private Vector3 curEndPoint = Vector3.zero; // Use this for initialization void Start () { transform.position = startPoint; curEndPoint = endPoint; } // Update is called once per frame void Update () { transform.position = Vector3.Slerp(transform.position, curEndPoint, Time.deltaTime * speed); transform.LookAt(lookAt); if (pingpong) { if (Vector3.Distance(transform.position, curEndPoint) < 0.001f) { curEndPoint = Vector3.Distance(curEndPoint, endPoint) < Vector3.Distance(curEndPoint, startPoint) ? startPoint : endPoint; } } } }

2.此代码挂在摄像机上

using System.Collections;using System.Collections.Generic;using UnityEngine; public class MotionBlurWithDepthTexture : PostEffectsBase{ public Shader MotionBlurShader; private Material _motionBlurMaterial = null; public Material Material { get { _motionBlurMaterial = CheckShaderAndCreateMaterial(MotionBlurShader, _motionBlurMaterial); return _motionBlurMaterial; } } //定义运动模糊时模糊图像使用的大小 [Range(0.0f, 1.0f)] public float BlurSize = 0.5f; //定义一个Camera变量,获取该脚本所在的摄像机组建,得到摄像机的视角和投影矩阵 private Camera _myCamera; public Camera Camera { get { if (_myCamera == null) { _myCamera = GetComponent<Camera>(); } return _myCamera; } } //定义一个变量保存 上一帧摄像机的视角 * 投影矩阵 private Matrix4x4 _previousViewProjectionMatrix; //在OnEnable中设置摄像机的状态,以获得深度纹理 void OnEnable() { Camera.depthTextureMode = DepthTextureMode.Depth; } void OnRenderImage(RenderTexture src, RenderTexture dest) { if (Material != null) { //将模糊大小传给Shader Material.SetFloat("_BlurSize", BlurSize); //使用 视角 * 投影矩阵 对NDC(归一化的设备坐标)下的顶点坐标进行变换,得到该像素在世界空间下的位置 //计算前一帧与当前帧的位置差,生成该像素的速度 //将 前一帧视角 * 投影矩阵 传给Shader Material.SetMatrix("_PreviousViewProjectionMatrix", _previousViewProjectionMatrix); //计算 当前帧视角 * 投影矩阵 //Camera.projectionMatrix获得当前摄像机投影矩阵 //Camera.worldToCameraMatrix获得当前摄像机视角矩阵 Matrix4x4 currentViewProjectionMartix = Camera.projectionMatrix * Camera.worldToCameraMatrix; //计算 当前帧视角 * 投影矩阵 的逆矩阵 Matrix4x4 currentViewProjectionInverseMartix = currentViewProjectionMartix.inverse; //将当前帧视角 * 投影矩阵 的逆矩阵 传递给Shader Material.SetMatrix("_CurrentViewProjectionInverseMartix", currentViewProjectionInverseMartix); //将 当前帧视角 * 投影矩阵 保存为 前一帧视角 * 投影矩阵 _previousViewProjectionMatrix = currentViewProjectionMartix; Graphics.Blit(src, dest, Material); } else { Graphics.Blit(src, dest); } }}

3.此Shader赋值给代码2

Shader "Unity Shaders Book/Chapter 13/MotionBlurWithDepthTexture"{ Properties { _MainTex ("Base (RGB)", 2D) = "white" {} //模糊图像时使用的参数 _BlurSize ("Blur Size", Float) = 1.0 //这里并没有声明_PreviousViewProjectionMatrix和_CurrentViewProjectionInverseMartix //是因为Unity并没有提供矩阵类型的属性,但仍然可以在CG代码块中定义这些矩阵,并从脚本中设置它们 } SubShader { CGINCLUDE #include "UnityCG.cginc" sampler2D _MainTex; //使用_MainTex_TexelSize变量来对深度纹理的采样坐标进行平台化差异处理 half4 _MainTex_TexelSize; //Unity传递来的深度纹理 sampler2D _CameraDepthTexture; //声明_PreviousViewProjectionMatrix和_CurrentViewProjectionInverseMartix float4x4 _PreviousViewProjectionMatrix; float4x4 _CurrentViewProjectionInverseMartix; half _BlurSize; //定义顶点着色器 struct v2f { float4 pos : SV_POSITION; half2 uv : TEXCOORD0; //添加了用于深度纹理采样的纹理坐标变量 half2 uv_depth : TEXCOORD1; }; v2f vert(appdata_img v) { v2f o; o.pos = UnityObjectToClipPos(v.vertex); o.uv = v.texcoord; o.uv_depth = v.texcoord; //平台差异化处理 #if UNITY_UV_STARTS_AT_TOP if (_MainTex_TexelSize.y < 0) { o.uv_depth.y = 1 - o.uv_depth.y; } #endif return o; } //定义片元着色器 fixed4 frag(v2f i) : SV_Target{ //使用宏和纹理坐标对深度纹理进行采样,得到深度值 float d = SAMPLE_DEPTH_TEXTURE(_CameraDepthTexture, i.uv_depth); //构建当前像素的NDC坐标,xy坐标由像素的纹理坐标映射而来,z坐标由深度值d映射而来 float4 H = float4(i.uv.x * 2 - 1, i.uv.y * 2 - 1, d * 2 - 1, 1); //使用 当前帧的视角 * 投影矩阵 的逆矩阵 对H进行变换 float4 D = mul(_CurrentViewProjectionInverseMartix, H); //把结果除以它的w分量,得到该像素世界空间下的坐标 float4 worldPos = D / D.w; //像素当前帧NDC坐标 float4 currentPos = H; //使用 前一帧视角 * 投影矩阵 变换世界空间的的坐标worldPos,并除以它的w分量,得到前一帧的NDC坐标 float4 previousPos = mul(_PreviousViewProjectionMatrix, worldPos); previousPos /= previousPos.w; //计算当前帧与前一帧在屏幕空间下的位置差,得到该像素的速度 float2 velocity = (currentPos.xy - previousPos.xy) / 2.0f; //使用速度值对邻域像素进行采样,相加后取平均值得到一个模糊效果,使用_BlurSize控制采样距离 float2 uv = i.uv; float4 c = tex2D(_MainTex, uv); uv += velocity * _BlurSize; for (int it = 1; it < 3; it++, uv += velocity * _BlurSize) { float4 currentColor = tex2D(_MainTex, uv); c += currentColor; } c /= 3; return fixed4(c.rgb, 1.0); } ENDCG Pass { ZTest Always Cull Off ZWrite Off CGPROGRAM #pragma vertex vert #pragma fragment frag ENDCG } } Fallback Off}

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。

声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。

相关文章