本站已关停,现有内容仅作科研等非赢利用途使用。特此声明。
查看: 295|回复: 0
打印 上一主题 下一主题

【上海GDG】人工智能 技术分享沙龙活动总结

[复制链接]
跳转到指定楼层
1#
发表于 2018-3-19 20:59:17 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式
时间:2018-03-17 13:00(星期六)
地点:上海市徐汇区桂林路406号(GDG孵化器)
主题:
13:00~13:30:签到及自我介绍;
13:30~13:45:GDG介绍;
13:45~14:30:企业如何应用 AI 做产品;
14:30~15:15:网页端实时通信开发实践;
15:15~15:30:活动合影
15:45~14:30:TensorFlow lite deep dive;
14:30~17:00:自由交流。




深智AI 李豪
企业如何应用人工智能技术和做产品
ADAS驾驶辅助系统 分割算法
人物动作骨架软硬一体方案 应用领域货物安防司机商店
提问:人工智能能做什么
计算估计视觉/语音文字处理/数据预测/数据生成(弱人工智能时代)
近几年算法逐渐成熟
提问:企业需要什么?人工智能工程师需要什么?
从企业落地方向阐述优势难点
举例:疲劳检测项目
核心为四部:技术选型(计算机视觉:图像分类【适合场景识别】/物体识别【检测前车行人】/关键点检测【骨架识别】/图像分割【无人车/机】)/数据打标/训练优化/终端上线
技术选型 如何判断疲劳:闭眼频率(物体识别)
选择网络算法 SSD+Mobilenet
做产品需要注意在有限的硬件算力下达到最好的效果
数据打标:数据总量/达标标准/样本比例/图片一边多(数据增强)
个人认为:只要数据对 量不需要太大也能出效果
达标标准:标准需要同意
样本比例:5比5
图片一变多:可以在训练前做一些训练增强 把数据集维度变大
训练优化
如何调参降低loss:数据集维度(集中针对性尽可能强)/Batch Size(个人认为值不用太大 值为24较好)/Learning Rate(对loss来说是决定性的参数 尽可能调大0.1左右 个人推荐手动调)/Regulation Weight(推荐先保持默认比例)/Normalazation Decay
如何简化优化网络:模型输入尺寸(尽可能把值调小 根据实际情况取平衡点)/BatchNormalazation and Dropout(加强网络针对性 不要滥用不推荐每一层都用)/MobileNet简化思路/判错样本再训练(先收集重新打成tfreport进行再训练 不能把learning rate调太大)/网络模块优化(推荐空洞卷积)/openblas(把矩阵运算尽可能做优化加快网络实时性)
上线
Android PB/TF-Lite  ubuntu系统(支持模型更多)  后端服务器运行模型
提问:如何学习人工智能
AI要项目驱动学习,推荐在做项目的同时学理论
声网 张乾泽 web研发工程师
使用机器学习提升WebRTC通话质量
以前的难点:数据采集/数据通讯(推流延迟)
WebRTC
无插件提供跨浏览器RTC支持
提供js接口访问媒体
提供点对点连接和数据通道
低服务器损耗,低延迟
优点为减少服务器损耗/降低延迟/更加方便的接入
如何判定realtime:
是否延迟(帧发送到接收端的时间间隔)/是否流畅(帧率)/是否清晰(比特率即每秒发送的数据大小)
通过这三个参数判断质量
Google Congestion Control
在数据拥塞上提供了机制:
DBCC:时间段超过阈值调节码率
LBCC:丢包问题
运作机制:
Sender>network>Receiver
发送量大于接受量产生丢包 丢包后反馈到发送端降低码率保证通信流畅
不是所有的丢包都可以靠降低码率规避
跨运营商丢包一般采用: NACK/EFC
NACK:发送端尝试重传
EFC:添加信息 若发现数据丢失则尝试还原
LPCC和跨运营商丢包如何进行区分判断:
希望可以自动判断应该使用那种策略
预测丢包的模式,并尽量在问题发生前解决问题
使用机器学习
利用RNN学习媒体后台数据
带宽估计/Jitter/Bitrate/Loss/Delay
使用训练模型进行布置策略
难点:如何有效率的从百亿级别的数据中挑选有用的数据并进行打标
其他可能性:降低部分视频细节/在接收端对细节进行恢复
浏览器端目前WebRTC延迟最优秀
目前应用场景更多在教育
TensorFlow Lite Deep Dive 顾仁民 移动设备人工智能
多维数组 运算图
TensorFlow的运用:风格转换/翻译(图像识别)/医学图像/自动驾驶/相机效果
为什么需要设备端机器智能:
1.    趋势:认为未来是智能设备时代
2.    算力提升:软硬件的提升
3.    离线
4.    带宽
5.    电量(很多场景发现设备将数据发送到云端的电量消耗大于设备运算)
挑战:如何在不同的设备上都能运行起来
TensorFlow Lite是什么?
轻量级的机器学习 适合移动设备的库
区别是代码是完全分割开的,有自己的文件格式,interpreter,Ops/Kemels
TensorFlow>Graphdef/checkpoint>converter>TensorFlowLite Format>interpreter>hardware Acceleration interface
如何转成Lite模式
1.    Freeze Graph(变量变成常量)
2.    Convert
推荐运用Python
Flatbuffers
和protobuf类似,更好的内存效率,可mmap,更少的代码
Model
Op Code算子
Sub-Graph
Buffer 数据存储区域
Interpreter是如何工作的
Mmap得到模型(R Buffers Ops Tensors)
TFLiteContext包含了所有TFLiteTensor
TFLiteNode包含了输入输出的Tensor索引值
TFLiteRegistration包含了Node中算子的函数指针
OpResolver维护了函数指针映射关系
下一步计划:Better tooling/GPU etc.acceleration/More op coverage/More devices


WechatIMG993.jpg (189.81 KB, 下载次数: 0)

WechatIMG993.jpg

WechatIMG987.jpg (197.89 KB, 下载次数: 11)

WechatIMG987.jpg

WechatIMG986.jpg (189.62 KB, 下载次数: 0)

WechatIMG986.jpg

WechatIMG984.jpg (175.06 KB, 下载次数: 0)

WechatIMG984.jpg

WechatIMG982.jpg (206.82 KB, 下载次数: 11)

WechatIMG982.jpg

WechatIMG978.jpg (191.23 KB, 下载次数: 0)

WechatIMG978.jpg

WechatIMG977.jpg (210.95 KB, 下载次数: 11)

WechatIMG977.jpg

WechatIMG976.jpg (201.69 KB, 下载次数: 11)

WechatIMG976.jpg

WechatIMG975.jpg (176.61 KB, 下载次数: 11)

WechatIMG975.jpg
ChinaGDG.com
回复

使用道具 举报

*滑动验证:
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

快速回复 返回顶部 返回列表