时间:2018-03-17 13:00(星期六) 地点:上海市徐汇区桂林路406号(GDG孵化器) 主题: 13:00~13:30:签到及自我介绍; 13:30~13:45:GDG介绍; 13:45~14:30:企业如何应用 AI 做产品;
14:30~15:15:网页端实时通信开发实践; 15:15~15:30:活动合影 15:45~14:30:TensorFlow lite deep dive; 14:30~17:00:自由交流。
深智AI 李豪 企业如何应用人工智能技术和做产品 ADAS驾驶辅助系统 分割算法 人物动作骨架软硬一体方案 应用领域货物安防司机商店 提问:人工智能能做什么 计算估计视觉/语音文字处理/数据预测/数据生成(弱人工智能时代) 近几年算法逐渐成熟 提问:企业需要什么?人工智能工程师需要什么? 从企业落地方向阐述优势难点 举例:疲劳检测项目 核心为四部:技术选型(计算机视觉:图像分类【适合场景识别】/物体识别【检测前车行人】/关键点检测【骨架识别】/图像分割【无人车/机】)/数据打标/训练优化/终端上线 技术选型 如何判断疲劳:闭眼频率(物体识别) 选择网络算法 SSD+Mobilenet 做产品需要注意在有限的硬件算力下达到最好的效果 数据打标:数据总量/达标标准/样本比例/图片一边多(数据增强) 个人认为:只要数据对 量不需要太大也能出效果 达标标准:标准需要同意 样本比例:5比5 图片一变多:可以在训练前做一些训练增强 把数据集维度变大 训练优化 如何调参降低loss:数据集维度(集中针对性尽可能强)/Batch Size(个人认为值不用太大 值为24较好)/Learning Rate(对loss来说是决定性的参数 尽可能调大0.1左右 个人推荐手动调)/Regulation Weight(推荐先保持默认比例)/Normalazation Decay 如何简化优化网络:模型输入尺寸(尽可能把值调小 根据实际情况取平衡点)/BatchNormalazation and Dropout(加强网络针对性 不要滥用不推荐每一层都用)/MobileNet简化思路/判错样本再训练(先收集重新打成tfreport进行再训练 不能把learning rate调太大)/网络模块优化(推荐空洞卷积)/openblas(把矩阵运算尽可能做优化加快网络实时性) 上线 Android PB/TF-Lite ubuntu系统(支持模型更多) 后端服务器运行模型 提问:如何学习人工智能 AI要项目驱动学习,推荐在做项目的同时学理论 声网 张乾泽 web研发工程师 使用机器学习提升WebRTC通话质量 以前的难点:数据采集/数据通讯(推流延迟) WebRTC: 无插件提供跨浏览器RTC支持 提供js接口访问媒体 提供点对点连接和数据通道 低服务器损耗,低延迟 优点为减少服务器损耗/降低延迟/更加方便的接入 如何判定realtime: 是否延迟(帧发送到接收端的时间间隔)/是否流畅(帧率)/是否清晰(比特率即每秒发送的数据大小) 通过这三个参数判断质量 Google Congestion Control 在数据拥塞上提供了机制: DBCC:时间段超过阈值调节码率 LBCC:丢包问题 运作机制: Sender>network>Receiver 发送量大于接受量产生丢包 丢包后反馈到发送端降低码率保证通信流畅 不是所有的丢包都可以靠降低码率规避 跨运营商丢包一般采用: NACK/EFC NACK:发送端尝试重传 EFC:添加信息 若发现数据丢失则尝试还原 LPCC和跨运营商丢包如何进行区分判断: 希望可以自动判断应该使用那种策略 预测丢包的模式,并尽量在问题发生前解决问题 使用机器学习 利用RNN学习媒体后台数据 带宽估计/Jitter/Bitrate/Loss/Delay 使用训练模型进行布置策略 难点:如何有效率的从百亿级别的数据中挑选有用的数据并进行打标 其他可能性:降低部分视频细节/在接收端对细节进行恢复 浏览器端目前WebRTC延迟最优秀 目前应用场景更多在教育 TensorFlow Lite Deep Dive 顾仁民 移动设备人工智能 多维数组 运算图 TensorFlow的运用:风格转换/翻译(图像识别)/医学图像/自动驾驶/相机效果 为什么需要设备端机器智能: 1. 趋势:认为未来是智能设备时代 2. 算力提升:软硬件的提升 3. 离线 4. 带宽 5. 电量(很多场景发现设备将数据发送到云端的电量消耗大于设备运算) 挑战:如何在不同的设备上都能运行起来 TensorFlow Lite是什么? 轻量级的机器学习 适合移动设备的库 区别是代码是完全分割开的,有自己的文件格式,interpreter,Ops/Kemels TensorFlow>Graphdef/checkpoint>converter>TensorFlowLite Format>interpreter>hardware Acceleration interface 如何转成Lite模式 1. Freeze Graph(变量变成常量) 2. Convert 推荐运用Python Flatbuffers 和protobuf类似,更好的内存效率,可mmap,更少的代码 Model: Op Code算子 Sub-Graph Buffer 数据存储区域 Interpreter是如何工作的 Mmap得到模型(R Buffers Ops Tensors) TFLiteContext包含了所有TFLiteTensor TFLiteNode包含了输入输出的Tensor索引值 TFLiteRegistration包含了Node中算子的函数指针 OpResolver维护了函数指针映射关系 下一步计划:Better tooling/GPU etc.acceleration/More op coverage/More devices
|