Skip to content

Latest commit

 

History

History
101 lines (60 loc) · 3.63 KB

第10期组队学习计划.md

File metadata and controls

101 lines (60 loc) · 3.63 KB

Datawhale 组队学习

第10期Datawhale组队学习计划马上就要开始啦!

这次学习动手学深度学习PyTorch版,采用线上视频学习,最后需要学员组队完成课程作业任务。

大家可以根据我们的开源内容进行自学,也可以加入我们的组队学习一起来学。


举办单位

举办:伯禹教育 、Datawhale、和鲸科技

特别支持:亚马逊AWS

集训营时间

      开营仪式:2月11日 14:00 -15:30
      课程学习时间:2月11日-24日
      代码作业时间:2月25日-27日
      结营与颁奖仪式:2月29日 14:00-16:00

定位人群:有编程语言基础知识,希望学习深度学习方向学者

时间安排:19天,每天平均花费时间3小时-5小时不等,根据个人学习接受能力强弱有所浮动

教辅人员:杨冰楠、肖然、李碧涵、谢文昕、鲁力、苏鹏、王程伟、张文涛、Jepson、安晟、詹好、张帆、路建飞、李威、蒋志强、任乔牧、张强、么广忠、张晓东、李玲、李文乐、车弘书、杨开漠、马晶敏、杨煜、金娟娟、高立业、宋益东、伊雪、叶梁、高永伟、孙涛、张丰、艾春晖、苏静静、张峰、杨昱文、孙超、张雨、赵楠、张子豪


任务简介

Part1 2月11日 14:00 -15:30

  • 开营介绍&组队(1天)

Part2 (视频学习)2月11日-24日

  • Task01:线性回归;Softmax与分类模型、多层感知机(1天)
  • Task02:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸、梯度偏移;卷积神经网络基础(1天)
  • Task03:LeNet;卷积神经网络进阶;批量归一化和残差网络(1天)
  • Task04:文本预处理;语言模型;循环神经网络基础(1天)
  • 第一次讲座(1天)
  • Task05:循环神经网络进阶;机器翻译及相关技术;注意力机制与Seq2seq模型(1天)
  • Task06:Transformer、凸优化;梯度下降(1天)
  • Task07:优化算法进阶;数据增强;模型微调(1天)
  • Task08:目标检测基础;目标检测进阶;图像分割(1天)
  • 第二次讲座(1天)
  • Task09:图像风格迁移;图像分类案例1;图像分类案例2(1天)
  • Task10:word2vec;词嵌入进阶;文本分类(1天)
  • Task11:GAN、DCGAN(1天)
  • 第三次讲座(1天)(1天)

Part3(大作业)2月25日-27日

  • 代码作业(3天)

Part4 2月29日 14:00-16:00

  • 结营&证书颁发(1天)

具体规则

  • 注册 CSDN 或 Github 账户。
  • 按照任务安排进行学习,完成后写学习笔记Blog。
  • 在每次任务截止之前在群内打卡(发Blog链接),遇到问题在群内讨论。
  • 未按时打卡的同学视为自动放弃,被抱出学习群。

备注

有关Datawhale组队学习的开源内容如下:


本次组队学习的 PDF 文档可到Datawhale的知识星球下载:

Datawhale


Datawhale