CS Blog

「离开世界之前 一切都是过程」

人脸关键点对应Mask的三角剖分,用于美颜中mask区域对齐原图

得到所有的三角形顶点坐标,并得到索引用于glDrawElements渲染位置

我的主页:https://www.csblog.site/about/ 1. 引言 在一些安卓相机app中大量使用了OpenGL来实现各种特效,有着比较好的效果。其中人脸中五官的各个区域分别处理使用到了不同的mask掩膜。 在使用OpenGL将mask贴到人脸上,对齐原图的时候,需要得到mask的三角剖分,得到所有的三角形顶点坐标,并得到索引用于glDrawElements渲染位置。然而...

OpenGL

配置OpenGL环境与相关教程

安装 By 陈帅 (补充): 由于我比较习惯使用VSCode,所以从一开始我就按照VScode的教程,用Cmake去编译后面的Assimp模型加载库,然后发现,里面的坑比较多,最后看了国外论坛的一则提问(编译加载不成功怎么办,然后只有作者很久之后的一个回答:已经转VS。),才意识到用VS编译一步成功,所以还是先用VS比较好。 1.1 Vs...

OpenGL ES

Visual Studio配置OpenGL ES环境

1.安装 1.1 Visual Studio配置OpenGL ES环境 1.1.1 下载OpenGL ES相关配置 1.下载《OpenGL ES3.0 Programming guide》示例代码并解压,如图: https://codeload.github.com/danginsburg/opengles3-book/zip/master 下载mali opengl...

安卓应用逆向分析

逆向OpenGL的加密shader/glsl文件

我的主页:https://www.csblog.site/about/ 1. 引言 在一些安卓相机app中大量使用了OpenGL来实现各种特效,有着比较好的效果。而作为菜鸟的我们,如何来‘借鉴’一下它们的实现原理? 当我们直接解包apk文件时,我们欣喜的发现assert中存在着很多以.glsl或.shader结尾的着色器文件。我们打开一些时发现可以直接读取,但都是一些较为简单的着色器。 ...

人像模式与AI虚化效果原理与实现(OpenGL、shader GLSL)

主要侧重于虚化效果和从测试角度的一些关注点和注意事项,分别对比了目前最新几款手机的AI虚化效果

我的主页:https://www.csblog.site/about/ 1. 引言 手机的人像模式就是模仿传统摄影大光圈浅景深的效果。 虚化散景是在一个专门的模式下呈现的,通常是人像或光圈模式。人像摄影通常将拍摄人物对象置于一个模糊的焦外背景的前面,以凸显人物。 在物理定律的基础上,使用大光圈镜头与大画幅图像传感器的相机可以轻松实现背景虚化。 景深的深度与光圈大小呈反比关系,光圈大的...

单目深度估计

汇总几种单目深度估计的训练方法

前言 本文是一篇关于单目深度估计的文章,包含了几种单目深度估计的训练方法,主要介绍了几种方法的训练效果,以及如何使用。 论文代码仓库在https://paperswithcode.com。 不同方法 1.MonoDepth 用于无监督单目深度估计。 链接 论文 2.D-Net 提供了一个基于 QT-5 的 GUI,可以连接到任何网络摄像头。 https://github.com...

Clip

CLIP介绍:连接文本和图像 https://openai.com/index/clip/. [OpenAI] Jan. 2021 CLIP(Contrastive Language-Image Pre-training)预先训练了一个图像编码器和一个文本编码器,以预测哪些图像与数据集中的哪些文本配对。然后,利用这种行为将 CLIP 转变为零样本分类器。将数据集的所有类别转换为标题,例如“...

LLM的常见分词器-Tokenizer

常用Tokenizer

Tokenizer 可以先试玩 huggingface 上的 Tokenizer 演示 Demo : Tokenizer playground 在nlp领域中tokenizer主要用于文本的预处理,能够将句子级文本转化为词级的文本,然后用于接下来的词向量转化,这个过程可以叫他token转化,或者直接叫tokenizer。 是LLM必不可少的一个部分,是语言模型最基础的...

常见损失函数

多种常用损失函数(loss function)

常见的损失函数 1. L1范数损失 L1Loss 计算 output 和 target 之差的绝对值。 公式: \[\ell(x, y) = L = \{l_1,\dots,l_N\}^\top, \quad l_n = \left| x_n - y_n \right|\] \[\ell(x, y) = \begin{cases} ...

LLaMA1解析

模型架构、预训练、部署优化特点

LLaMA 是Meta在2023年2月发布的一系列从 7B到 65B 参数的基础语言模型。LLaMA作为第一个向学术界开源的模型,在大模型爆发的时代具有标志性的意义。 为了更深入地理解LLaMA的技术特点,特地在此整理了LLaMA 1 模型架构、预训练、部署优化特点。话不多说,我们仔细看看吧。 LLaMA简介 论文:https://arxiv.org/abs/2302.1397...