李莉萍个人简历 |
更新日期 2024/11/30
简历名称 李莉萍个人简历
计算机软件 | 2年以上 | 硕士 | 西安市
|
编 号: | N192659 |
性 别: | 女 |
出生日期: | 1997/2/7 |
婚姻状况: | 未婚 |
国 籍: | 中国 |
民 族: | 汉族 |
身 高: | 163CM |
政治面貌: | 党员 |
教育程度: | 硕士 |
毕业时间: | 2022年6月 |
户 籍: | 渭南市合阳县 |
现居住地: | 西安市 |
|
|
职业概况 |
现从事行业: | 计算机软件 |
现从事职业: | 其他职位 |
现职位级别: | 中级职位(两年以上工作经验) |
工作年限: | 2年以上 |
目前薪水: | 月薪28000人民币 |
海外工作经历: | 没有 |
|
求职意向 |
期望工作性质: | 全职 |
期望工作地区: | 西安市 |
期望从事行业: | 计算机软件 |
期望从事职业: | 其他职位 |
期望薪水: | 月薪20000人民币 可面议 |
期望岗位名称: | 算法工程师 (到岗:2周以内) |
|
自我评价/职业目标 |
自我评价: | 责任心强,严格要求自己按时、高质量地完成自己的工作;
有耐心,遇到棘手的问题时,一定要解决,即使不能解决也要找到其症结;
有较强的学习能力,对于工作中涉及到的未知领域,愿意去探索;
有良好的环境适应能力以及抗压能力;
|
|
教育背景 |
- 学校名称:
- 西安电子科技大学大学 ( 2019年9月 - 2022年6月 )
- 学校名称:
- 西安理工大学 ( 2015年9月 - 2019年6月 )
|
工作经验 |
- 公司名称:
- 西安商汤智能科技有限公司 ( 2022年7月 - 2024年10月 )
- 工作描述:
- 在职期间,参与并完成U3D数字人驱动大屏和商汤自研动捕平台两个项目,解决了动捕大空间VR行业内数字人驱动效果不佳、头显运动眩晕晃动两大痛点问题。项目交付期间与团队成员共同驻守外场,在长达两周夜以继日的调试后,完成自研动捕平台的完整交付并协助合作方游戏开发定位并解决问题,在交付节点前圆满收工。在大模型兴起的浪潮下,和团队共同探索大模型+AI助盲的前景和方向,初步阶段取得了部分盲人体验者的较高评价。
|
职业技能 |
职业技能: | 编程语言:C++,Python
熟悉 CNN,Transfmer等网络架构,熟悉PyTch等框架
熟悉图像处理、深度学习、机器学习相关知识,具有分割、检测、跟踪相关项目经验
操作系统:Windows,Linux
熟练使用Docker容器化技术,掌握Dockerfile编写,熟悉Docker进行打包等操作
熟练使用Git等项目管理工具
|
|
项目经验 |
- 项目名称:
- IEEE IGRSS2020 数据融合竞赛高低分辨率土地分类 第9名(在校) ( 2020年1月 - 2020年3月 )
- 项目描述:
- 带有大量低分辨率标签和少量高分辨率标签的土地覆盖分类。
- 责任描述:
- 1、针对标签中噪声严重的问题,筛选类别纯度更高的数据,并使用Kmeans聚类方法对部分错误标签进行纠正;
2、使用Unet网络和少量细标签进行训练,并生成训练集的伪标签,与原始标签进行融合;
3、使用处理过的粗标签和部分细标签训练得到分割网络,输出验证集上的混淆矩阵,根据混淆矩阵,对于混淆严重的类别进行精细化再训练,替换测试集中对应像素点的预测结果;
- 项目名称:
- GigaVision 十亿像素图像与视频视觉挑战赛:多目标追踪 第4名(在校) ( 2020年7月 - 2020年8月 )
- 项目描述:
- 在目标拥挤、尺度变化大,存在遮挡情况的复杂场景下,生成行人在视频中的轨迹。
- 责任描述:
- 1、目标检测
根据行人在原始视频帧中的分布对原始数据进行切图,保证图像边界两侧行人完整;
使用Crowdet得到行人的全身检测框,使用Efficientdet得到行人的可见部分检测框;
通过最大重合面积新型全身检测框与可见部分检测框的匹配(用于缓解跟踪中的id switch问题);
2、目标跟踪
对超十亿像素的视频帧以及检测结果进行切分,得到若干尺寸较小的待检测视频帧;
使用GMOT算法进行训练、检测,得到目标检测框的匹配结果;
基于nms方法获得图像边界上行人ID的匹配,将跟踪结果还原到原始的大范围场景下;
- 项目名称:
- 遥感大数据智能解译系统(在校) ( 2020年9月 - 2021年10月 )
- 项目描述:
- 搭建在线遥感解译系统,进行多种遥感解译任务(目标检测、地物分类等);覆盖多种图像类型(光学图像、SAR图像、多光谱图像、高光谱图像)。
- 责任描述:
- 1、高光谱图像水域提取: 使用3D卷积同时提取光谱信息和空间信息;过滤面积较小的连通域去除部分误检;
2、飞机目标检测: 使用YOLOv5算法检测遥感影像中的飞机目标,加入数据增强操作,使用密度聚类方法进行后处理并根据目标密度输出不同置信度下的结果;
3、前后端的对接:解决多种解译任务运行环境不同的问题,与前端人员合作完成系统框架的搭建,任务进度、异常等信息的传递等;
- 项目名称:
- U3D数字人驱动大屏 ( 2022年7月 - 2023年2月 )
- 项目描述:
- 全手势交互的数字人选择以及驱动软件,玩家通过隔空手势操作软件选择数字人形象,并基于单目视觉相机捕捉玩家运动驱动数字人同步运动;
- 责任描述:
- 1、项目后台开发工作,包括手势数据响应(数字人切换、旋转、选择等操作)、数字人驱动等,以及针对不同交付项目定制化开发;
2、核心算法调研、优化:融合MetrAbs人体关键点检测和MediaPipe手部关键点检测结果得到人体52关节点位置数据,并设计实现遮挡检测模块以运动预测方法恢复遮挡关节点的运动数据,缓解丢点问题;
3、设计 ik 解算算法,通过身体关节点的位置数据和旋转数据(求解量)之间的计算关系,经过LBFGS优化器迭代得到能自然驱动数字人的6自由度姿态数据,有效缓解滑步问题和抖动问题;
4、SDK开发,使用C++的libtch库重构 ik 算法迭代过程,加速计算减小运动延迟;
5、设计手势识别模块,通过手部关节点运动数据识别用户手
- 项目名称:
- 商汤自研动捕平台 ( 2023年2月 - 2024年7月 )
- 项目描述:
- 一套从动捕设备到终端应用的全流程动捕平台方案,其中包括:数据采集软件->自研动捕软件->UE/U3D插件->端侧应用可视化;
- 责任描述:
- 1、动捕软件前端制作,基于UE引擎制作前端交互界面,包括主界面和多个模块子卡片的显示/隐藏和数据更新;
2、动捕软件后台开发,基于UE C++实现高内聚低耦合的后端结构,完成算法模型、人形/手势动捕、终端设备管理、数字人驱动等数据管理模块;
3、SDK开发,基于Eigen、TensRT、Xlog等C++库实现动捕数据获取、模型转换及推理、人形驱动数据输出的完整链路;通过多线程实现各个模块完全解耦并行执行;在4090显卡上达到了3ms以内的数据延迟;
4、人体姿态估计算法优化:通过mask策略随机遮挡训练数据集中的部分输入数据训练RSTMA模型,提升模型在数据丢失时的预测能力;通过Shapy算法得到smpl的体形参数进而得到Tracker的offset bias得到较好的
- 项目名称:
- 助盲语音交互眼镜 ( 2024年7月 - 2024年10月 )
- 项目描述:
- 基于fastgpt开箱即用的数据处理、模型调用等能力,将AI问答能力与Rokid眼镜结合起来,使得盲人可以根据第一视角图像和语音提问感知周围环境信息;
- 责任描述:
- 1、fastgpt部署,大语言模型、Embedding模型部署,RAG知识库构建优化;
2、设计问答模式,辅以自标注数据对多模态语言模型InternVL 2.0模型进行微调,预测盲人用户行为意图和意向目标,在正样本数据上取得85%以上的准确率;
3、应用工作流设计及优化,基于用户意图设计工作流程,检测用户意向目标,提取有效信息设计不同的prompt获取千问/Glm4模型回复,通过prompt优化减轻了回复错误、冗余等问题,经多组人工打分取得平均78分的满意度;
|
|