去K书深度学习中心育才馆怎么样
㈠ 科普:深度学习和机器学习有何区别
深度学习其实是一个很广泛的词语,我身边就有一家深度学习中心,叫“去K书”的。你可以到那里去了解一下,带一个那里的环境图给你参考一下。这环境还真的蛮好的
㈡ 一看书就犯困!身为学生该如何进行深度学习
一看书就犯困,这种学生大有人在,平常玩手机的时候,平常和朋友聊天的时候一点都不困,但是只要看上书没有一会儿就头脑发昏,困的不行不行了,这个就是因为你学习的节奏没有把控好,没有找到合适的学习环境。
学习的过程注定不是轻松的过程,因为虽然说学习的过程确实也能找到一些快乐,但是这些快乐相比较于学习给你带来的痛苦,我还是微不足道的,所以说学习要有方法有环境,但更要有信念,就是你要知道自己为什么要学习,学习最终能给自己带来什么样的改变,当你内心的动力足够强的时候,那么你的学习状态可能就会好很多了。
㈢ 目前深度学习技术在人工智能的应用方面已经放缓了脚步,你认AT下一次浪潮的核心会是哪种技术或应用
摘要 人工智能在最近三年时间中受到的关注很大程度来自于其在围棋领域超越人类的“奇迹”,人工智能一次又一次的证明了人类“围棋智慧”优越的脆弱性。
㈣ 如何开启深度学习之旅
如何开启深度学习之旅?这三大类125篇论文为你导航(附资源下载)
如果你现在还是个深度学习的新手,那么你问的第一个问题可能是「我应该从哪篇文章开始读呢?在 G上,s准备了一套深度学习阅读清单,而且这份清单在随时更新。
项目地址:
这份清单依照下述 4 条原则建立:
从整体轮廓到细节
从过去到当代
从一般到具体领域
聚焦当下最先进技术
你会发现很多非常新但很值得一读的论文。这份清单我会持续更新。
1、深度学习的历史与基础知识
1.0 书籍
[0] Bengio, Yoshua, Ian J. Goodfellow, and Aaron Courville. 深度学习(Deep learning), An MIT Press book. (2015). (这是深度学习领域的圣经,你可以在读此书的同时阅读下面的论文)。
1.1 调查类:
[1] LeCun, Yann, Yoshua Bengio, and Geoffrey Hinton. 深度学习 (Deep learning), Nature 521.7553 (2015): 436-444. (深度学习三位大牛对各种学习模型的评价)
1.2 深度信念网络(DBN)(深度学习前夜的里程碑)
[2] Hinton, Geoffrey E., Simon Osindero, and Yee-Whye Teh. 一个关于深度信念网络的快速学习算法(A fast learning algorithm for deep belief nets), (深度学习的前夜)
[3] Hinton, Geoffrey E., and Ruslan R. Salakhutdinov. 使用神经网络降低数据的维度(Recing the dimensionality of data with neural networks), (里程碑式的论文,展示了深度学习的可靠性)
1.3 ImageNet 的演化(深度学习从这里开始)
[4] Krizhevsky, Alex, Ilya Sutskever, and Geoffrey E. Hinton. 使用深度卷积神经网络进行 ImageNet 分类任务(Imagenet classification with deep convolutional neural networks)(AlexNet, 深度学习的突破)
[5] Simonyan, Karen, and Andrew Zisserman. 针对大尺度图像识别工作的的超深卷积网络(Very deep convolutional networks for large-scale image recognition) (VGGNet, 神经网络开始变得非常深!)
[6] Szegedy, Christian, et al. 更深的卷积(Going deeper with convolutions)(GoogLeNet)
[7] He, Kaiming, et al. 图像识别的深度残差学习(Deep resial learning for image recognition)(ResNet,超级超级深的深度网络!CVPR--IEEE 国际计算机视觉与模式识别会议-- 最佳论文)
1.4 语音识别的演化
[8] Hinton, Geoffrey, et al. 语音识别中深度神经网络的声学建模(Deep neural networks for acoustic modeling in speech recognition: The shared views of four research groups)(语音识别中的突破)
[9] Graves, Alex, Abdel-rahman Mohamed, and Geoffrey Hinton. 用深度循环神经网络进行语音识别(Speech recognition with deep recurrent neural networks)(RNN)
[10] Graves, Alex, and Navdeep Jaitly. 面向端到端语音识别的循环神经网络(Towards End-To-End Speech Recognition with Recurrent Neural Networks)
[11] Sak, Ha?im, et al. 语音识别中快且精准的循环神经网络声学模型(Fast and accurate recurrent neural network acoustic models for speech recognition)(语音识别系统)
[12] Amodei, Dario, et al. Deep speech 2:英语和汉语的端到端语音识别(Deep speech 2: End-to-end speech recognition in english and mandarin)(网络语音识别系统)
[13] W. Xiong, J. Droppo, X. Huang, F. Seide, M. Seltzer, A. Stolcke, D. Yu, G. Zweig,在对话语音识别中实现人类平等(Achieving Human Parity in Conversational Speech Recognition)
当你读完了上面给出的论文,你会对深度学习历史有一个基本的了解,深度学习建模的基本架构(包括了 CNN,RNN,LSTM)以及深度学习如何可以被应用于图像和语音识别问题。下面的论文会让你对深度学习方法,不同应用领域中的深度学习技术和其局限有深度认识。
2 深度学习方法
2.1 模型
[14] Hinton, Geoffrey E., et al. 通过避免特征检测器的共适应来改善神经网络(Improving neural networks by preventing co-adaptation of feature detectors)(Dropout)
[15] Srivastava, Nitish, et al. Dropout:一种避免神经网络过度拟合的简单方法(Dropout: a simple way to prevent neural networks from overfitting)
[16] Ioffe, Sergey, and Christian Szegedy. Batch normalization:通过减少内部协变量加速深度网络训练(Batch normalization: Accelerating deep network training by recing internal covariate shift)(2015 年一篇杰出论文)
[17] Ba, Jimmy Lei, Jamie Ryan Kiros, and Geoffrey E. Hinton.层归一化(Layer normalization)(批归一化的升级版)
[18] Courbariaux, Matthieu, et al. 二值神经网络:训练神经网络的权重和激活约束到正 1 或者负 1(Binarized Neural Networks: Training Neural Networks with Weights and Activations Constrained to+ 1 or?1)(新模型,快)
[19] Jaderberg, Max, et al. 使用合成梯度的解耦神经接口(Decoupled neural interfaces using synthetic gradients)(训练方法的发明,令人惊叹的文章)
[20] Chen, Tianqi, Ian Goodfellow, and Jonathon Shlens. Net2net:通过知识迁移加速学习(Net2net: Accelerating learning via knowledge transfer) (修改之前的训练网络以减少训练)
[21] Wei, Tao, et al. 网络形态(Network Morphism)(修改之前的训练网络以减少训练 epoch)
2.2 优化
[22] Sutskever, Ilya, et al. 有关深度学习中初始化与动量因子的研究(On the importance of initialization and momentum in deep learning) (动量因子优化器)
[23] Kingma, Diederik, and Jimmy Ba. Adam:随机优化的一种方法(Adam: A method for stochastic optimization)(可能是现在用的最多的一种方法)
[24] Andrychowicz, Marcin, et al. 通过梯度下降学习梯度下降(Learning to learn by gradient descent by gradient descent) (神经优化器,令人称奇的工作)
[25] Han, Song, Huizi Mao, and William J. Dally. 深度压缩:通过剪枝、量子化训练和霍夫曼代码压缩深度神经网络(Deep compression: Compressing deep neural network with pruning, trained quantization and huffman coding) (ICLR 最佳论文,来自 DeePhi 科技初创公司,加速 NN 运行的新方向)
[26] Iandola, Forrest N., et al. SqueezeNet:带有 50x 更少参数和小于 1MB 模型大小的 AlexNet-层级精确度(SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and< 1MB model size.) (优化 NN 的另一个新方向,来自 DeePhi 科技初创公司)
2.3 无监督学习/深度生成模型
[27] Le, Quoc V. 通过大规模无监督学习构建高级特征(Building high-level features using large scale unsupervised learning.) (里程碑,吴恩达,谷歌大脑,猫)
[28] Kingma, Diederik P., and Max Welling. 自动编码变异贝叶斯(Auto-encoding variational bayes.) (VAE)
[29] Goodfellow, Ian, et al. 生成对抗网络(Generative adversarial nets.)(GAN, 超酷的想法)
[30] Radford, Alec, Luke Metz, and Soumith Chintala. 带有深度卷曲生成对抗网络的无监督特征学习(Unsupervised representation learning with deep convolutional generative adversarial networks.)(DCGAN)
[31] Gregor, Karol, et al. DRAW:一个用于图像生成的循环神经网络(DRAW: A recurrent neural network for image generation.) (值得注意的 VAE,杰出的工作)
[32] Oord, Aaron van den, Nal Kalchbrenner, and Koray Kavukcuoglu. 像素循环神经网络(Pixel recurrent neural networks.)(像素 RNN)
[33] Oord, Aaron van den, et al. 使用像素 CNN 解码器有条件地生成图像(Conditional image generation with PixelCNN decoders.) (像素 CNN)
2.4 RNN/序列到序列模型
[34] Graves, Alex. 带有循环神经网络的生成序列(Generating sequences with recurrent neural networks.)(LSTM, 非常好的生成结果,展示了 RNN 的力量)
[35] Cho, Kyunghyun, et al. 使用 RNN 编码器-解码器学习词组表征用于统计机器翻译(Learning phrase representations using RNN encoder-decoder for statistical machine translation.) (第一个序列到序列论文)
[36] Sutskever, Ilya, Oriol Vinyals, and Quoc V. Le. 运用神经网路的序列到序列学习(Sequence to sequence learning with neural networks.」)(杰出的工作)
[37] Bahdanau, Dzmitry, KyungHyun Cho, and Yoshua Bengio. 通过共同学习来匹配和翻译神经机器翻译(Neural Machine Translation by Jointly Learning to Align and Translate.)
[38] Vinyals, Oriol, and Quoc Le. 一个神经对话模型(A neural conversational model.)(聊天机器人上的序列到序列)
2.5 神经图灵机
[39] Graves, Alex, Greg Wayne, and Ivo Danihelka. 神经图灵机器(Neural turing machines.)arXiv preprint arXiv:1410.5401 (2014). (未来计算机的基本原型)
[40] Zaremba, Wojciech, and Ilya Sutskever. 强化学习神经图灵机(Reinforcement learning neural Turing machines.)
[41] Weston, Jason, Sumit Chopra, and Antoine Bordes. 记忆网络(Memory networks.)
[42] Sukhbaatar, Sainbayar, Jason Weston, and Rob Fergus. 端到端记忆网络(End-to-end memory networks.)
[43] Vinyals, Oriol, Meire Fortunato, and Navdeep Jaitly. 指示器网络(Pointer networks.)
[44] Graves, Alex, et al. 使用带有动力外部内存的神经网络的混合计算(Hybrid computing using a neural network with dynamic external memory.)(里程碑,结合上述论文的思想)
2.6 深度强化学习
[45] Mnih, Volodymyr, et al. 使用深度强化学习玩 atari 游戏(Playing atari with deep reinforcement learning.) (第一篇以深度强化学习命名的论文)
[46] Mnih, Volodymyr, et al. 通过深度强化学习达到人类水准的控制(Human-level control through deep reinforcement learning.) (里程碑)
[47] Wang, Ziyu, Nando de Freitas, and Marc Lanctot. 用于深度强化学习的决斗网络架构(Dueling network architectures for deep reinforcement learning.) (ICLR 最佳论文,伟大的想法 )
[48] Mnih, Volodymyr, et al. 用于深度强化学习的异步方法(Asynchronous methods for deep reinforcement learning.) (当前最先进的方法)
[49] Lillicrap, Timothy P., et al. 运用深度强化学习进行持续控制(Continuous control with deep reinforcement learning.) (DDPG)
[50] Gu, Shixiang, et al. 带有模型加速的持续深层 Q-学习(Continuous Deep Q-Learning with Model-based Acceleration.)
[51] Schulman, John, et al. 信赖域策略优化(Trust region policy optimization.) (TRPO)
[52] Silver, David, et al. 使用深度神经网络和树搜索掌握围棋游戏(Mastering the game of Go with deep neural networks and tree search.) (阿尔法狗)
2.7 深度迁移学习/终身学习/尤其对于 RL
[53] Bengio, Yoshua. 表征无监督和迁移学习的深度学习(Deep Learning of Representations for Unsupervised and Transfer Learning.) (一个教程)
[54] Silver, Daniel L., Qiang Yang, and Lianghao Li. 终身机器学习系统:超越学习算法(Lifelong Machine Learning Systems: Beyond Learning Algorithms.) (一个关于终生学习的简要讨论)
[55] Hinton, Geoffrey, Oriol Vinyals, and Jeff Dean. 提取神经网络中的知识(Distilling the knowledge in a neural network.) (教父的工作)
[56] Rusu, Andrei A., et al. 策略提取(Policy distillation.) (RL 领域)
[57] Parisotto, Emilio, Jimmy Lei Ba, and Ruslan Salakhutdinov. 演员模仿:深度多任务和迁移强化学习(Actor-mimic: Deep multitask and transfer reinforcement learning.) (RL 领域)
[58] Rusu, Andrei A., et al. 渐进神经网络(Progressive neural networks.)(杰出的工作,一项全新的工作)
2.8 一次性深度学习
[59] Lake, Brenden M., Ruslan Salakhutdinov, and Joshua B. Tenenbaum. 通过概率程序归纳达到人类水准的概念学习(Human-level concept learning through probabilistic program inction.)(不是深度学习,但是值得阅读)
[60] Koch, Gregory, Richard Zemel, and Ruslan Salakhutdinov. 用于一次图像识别的孪生神经网络(Siamese Neural Networks for One-shot Image Recognition.)
[61] Santoro, Adam, et al. 用记忆增强神经网络进行一次性学习(One-shot Learning with Memory-Augmented Neural Networks ) (一个一次性学习的基本步骤)
[62] Vinyals, Oriol, et al. 用于一次性学习的匹配网络(Matching Networks for One Shot Learning.)
[63] Hariharan, Bharath, and Ross Girshick. 少量视觉物体识别(Low-shot visual object recognition.)(走向大数据的一步)
3 应用
3.1 NLP(自然语言处理)
[1] Antoine Bordes, et al. 开放文本语义分析的词和意义表征的联合学习(Joint Learning of Words and Meaning Representations for Open-Text Semantic Parsing.)
[2] Mikolov, et al. 词和短语及其组合性的分布式表征(Distributed representations of words and phrases and their compositionality.) (word2vec)
[3] Sutskever, et al. 运用神经网络的序列到序列学习(Sequence to sequence learning with neural networks.)
[4] Ankit Kumar, et al. 问我一切:动态记忆网络用于自然语言处理(Ask Me Anything: Dynamic Memory Networks for Natural Language Processing.)
[5] Yoon Kim, et al. 角色意识的神经语言模型(Character-Aware Neural Language Models.)
[6] Jason Weston, et al. 走向人工智能-完成问题回答:一组前提玩具任务(Towards AI-Complete Question Answering: A Set of Prerequisite Toy Tasks.) (bAbI 任务)
[7] Karl Moritz Hermann, et al. 教机器阅读和理解(Teaching Machines to Read and Comprehend.)(CNN/每日邮件完形风格问题)
[8] Alexis Conneau, et al. 非常深度卷曲网络用于自然语言处理(Very Deep Convolutional Networks for Natural Language Processing.) (在文本分类中当前最好的)
[9] Armand Joulin, et al. 诡计包用于有效文本分类(Bag of Tricks for Efficient Text Classification.)(比最好的差一点,但快很多)
㈤ 深度学习太枯燥,坚持不下去怎么办
logo精彩文章免费看立即下载
学习,我们为什么坚持不下去?
刘小爱
简书创作者
0.1072016-06-15 09:14
关于读书
我们先假定这样一个场景:
如果有一个人从小就立志将来要考上清华北大,请问他认认真真听讲一节课有用么?
答案是并没有什么卵用
就算他一学期都很努力,期末拿年级第一名;就算他小学初中年年都是优秀学生;就算他靠着自己的努力进了省重点中学。
可那又怎样,他照样可能进不了清华北大。
所以,学习对于我们来说有2个重要难题。
反馈周期太长
首先,我们得明确:学习是一件需要长期积累的事情。我们都明白,多看书,可以改变一个人的气质,可以丰富一个人的见识,是一件百利而无一害的事情。
人们常说,书中自有黄金屋,书中自有颜如玉,但是你看书一天,一星期,一个月,难道就变帅气了么,就变富有了么?回答是并没有,短时间你是看不到这种改变的。
那么这就带来了一个难题,就是学习的反馈周期太长了,而一个人一旦“自身现状”和"个人预期"之间出现矛盾就会产生厌倦,人又是具有反馈思维的生物,当他长时间无法从某件事情中获得反馈时,就会更加厌倦,那么放弃的几率便会更大。
付出不一定会有回报
小Q在刚上高一的时候就非常努力,每天下晚自习后都会拿着作业,开着台灯做一会作业,当别人都已经进入梦乡了,他还在学习,同时他也比别人起来的早,遇到问题了也会及时的向老师请教,然而他资质确实一般,学习成绩也一直只是中等偏上一点点的水平。小Q知道自己的情况,于是给自己定了一个不算高的目标:考上一本。
然而最终他并没有考上一本,连本科的分数线都还差一点。心灰意冷的他最终选择了复读,复读那一年,他更努力了,起的更早,睡的更晚,但第二次的高考他还是没能考上一本,最后他选择了去了一所二本院校。
我们现在回过头来看,我们可以说小Q方法没选择对,可以说他努力错了方向,还可以说他学习效率太低。但不管怎样,我们不能否定他的付出,他确确实实是付出了很多,却没有得到相应的回报。
故事说到这,也许恰到好处,告诉了我们学习是一件付出了不一定会有回报的事情。但是,故事最终都会有一个美好的结局,如果你看来它并不美好,那是因为这个故事还没有结束...
小Q在大学照样很努力,一有空就会去图书馆里看书,时不时的也会写几篇文章发布在校园论坛上。就这样,四年的积累,当别人毕业都在抱怨找工作难时,他很容易就拿到了一家创业公司文案编辑的offer,此外,他还成为了某网站的签约作家,光靠稿费就能养活他自己。
有一种道理叫功不唐捐
功不唐捐,佛家语
“唐捐”是佛经里的话,意思就是泡汤了、白费了。功不唐捐就是努力绝不泡汤、绝不白费。一个人的努力,在看不见想不到的时候,在看不见想不到的地方,会生根发叶、开花结果。
天道酬请,功不唐捐
最后,灌一碗鸡汤:
这个世界上,有的人从小就十分优秀,很多问题看一遍就会;有的人从小就资质平平,也许他付出了双倍的努力都不及别人的一半。在学习这件事情上,有太多的不公平和不确定:有的人能在天上飞,有的人只能在地上跑。但不管怎样,难道因为发现已经有很多人在天上飞了,我们就要停止在地上奔跑么?
不是,只要我们跑的更快,总有一天会飞起来
㈥ 西安深度学习发展怎么样
学习就有用。就比如看书有没有用,短时间看不出来,但长时间的积累,你就会发生变化。
㈦ 深度学习的课程可以在哪看到
深度学习就是企图把中间的这个“黑箱”打开:目标是什么?根据什么确定了这样的目标?为了达到这个目标我要设计什么样的活动?
01
深度学习的必要性
改革开放40年,基础教育研究与实践的最大成就之一,就是树立了“学生是教育主体”的观念。但是,在课堂教学中,学生并未真正成为主体,大多数课堂教学也没有发生根本变化。为什么?因为大多数教学改革尚未抓住教学的根本,对课堂教学的研究还只停留在文本上、观念上,没有落到实际行动中。开展深度学习的研究与实践正是把握教学本质的一种积极努力,是我国课程教学改革走向深入的必需。
当前,智能机器尤其是智能化穿戴设备的大量出现,部分传统职业已被替代,甚至有人认为教师和教学也可能被替代而消失。在这样的情形下,我们不得不思考:在智能化时代,真的不需要教学了吗?真的不需要教师了吗?如果把教学仅仅看作是知识的刻板传递的话,那么,智能技术完全可以胜任,教学和教师完全可以被智能机器替代了。借用马云(阿里巴巴集团创始人)的话说,在一个把机器变成人的社会,如果教学还在把人变成机器,是没有出路的。
蒂姆·库克(苹果公司现任CEO)说:“我不担心机器会像人一样思考,我担心的是人会像机器一样思考。”正是由于智能机器的出现和挑战,我们必须严肃思考:教学究竟应该是怎么样的?教学存在的意义和价值究竟是什么?
事实上,教学的价值和意义一直都是培养人,但智能时代让它的意义和价值更加鲜明,不能再被忽视。因此,当机器已不只以存储为功能,而开始像人一样思考的时候,我们清醒地意识到:教学绝不是知识传递,甚至知识学习本身也只是培养人的手段,教学的最终目的是实现学生的全面发展。因此,帮助学生通过知识学习、在知识学习中形成核心素养,在知识学习中成长和发展,成为教学的首要任务。
02
深度学习的内涵
什么是深度学习?可以从两个层面来理解。
一个是初级层面,是针对教学实践领域的弊端提出来的,是针砭时弊的一种提法。深度学习是针对实践中存在大量的机械学习、死记硬背、知其然而不知其所以然的浅层学习现象而提出的。这里的“深度”是指学生的深度学习。我们并不强求教师必须采用某种固定的模式或方法,而是强调,教师要用恰当的方法去引发、促进、提升学生的深度学习。在这个意义上,深度学习是浅层学习的反面,是针砭时弊的。
但是,深度学习绝不只停留于这个层面。深度学习还有另一层面的理解,即高级的层面:深度学习并不只是为了促进学生高级认知和高阶思维,而是指向立德树人,指向发展核心素养,指向培养全面发展的人。因此,深度学习强调动心用情,强调与人的价值观培养联系在一起。
每个教师都应该想:我今天的教学会给学生造成什么样的影响?能够让他有善良、正直的品性吗?会让他热爱学习吗?会影响他对未来的积极期待吗?……总之,深度学习的目的是要培养能够“百尺竿头更进一步”、能够创造美好生活的人,是生活在社会历史进行中的、具体的人,而非抽象意义上的有高级认知和高阶思维的偶然个体。
综上,我们所说的深度学习,必须满足以下四个要点:
▲ 深度学习是指教学中学生的学习而非一般意义上学习者的自学,因而特别强调教师的重要作用,强调教师对学生学习的引导和帮助。
▲ 深度学习的内容是有挑战性的人类已有认识成果。也就是说,需要深度加工、深度学习的内容一定是具有挑战性的内容,通常是那些构成一门学科基本结构的基本概念和基本原理,而事实性的、技能性的知识通常并不需要深度学习。在这个意义上,深度学习的过程也是帮助学生判断和建构学科基本结构的过程。
▲ 深度学习是学生感知觉、思维、情感、意志、价值观全面参与、全身心投入的活动,是作为学习活动主体的社会活动,而非抽象个体的心理活动。
▲ 深度学习的目的指向具体的、社会的人的全面发展,是形成学生核心素养的基本途径。
根据这四个要点,我们给深度学习下了一个界定:“所谓深度学习,就是指在教师引领下,学生围绕着具有挑战性的学习主题,全身心积极参与、体验成功、获得发展的有意义的学习过程。在这个过程中,学生掌握学科的核心知识,理解学习的过程,把握学科的本质及思想方法,形成积极的内在学习动机、高级的社会性情感、积极的态度、正确的价值观,成为既具独立性、批判性、创造性又有合作精神、基础扎实的优秀的学习者,成为未来社会历史实践的主人”。
03
课堂教学如何实现深度学习?
1
实现经验与知识的相互转化
“经验”与“知识”常被看作是彼此对立的一对概念,事实上却有着紧密关联。深度学习倡导通过“联想与结构”的活动将二者进行关联、转化。简单来说,“联想与结构”是指学生通过联想,回想已有的经验,使当前学习内容与已有的经验建立内在关联,并实现结构化;而结构化了的知识(与经验)在下一个学习活动中才能被联想、调用。在这个意义上,“联想与结构”所要处理的正是知识与经验的相互转化,即经验支持知识的学习,知识学习要结构化、内化为个人的经验。也就是说,学生个体经验与人类历史知识不是对立、矛盾的,而是相互关联的,教师要找到它们的关联处、契合处,通过引导学生主动“联想与结构”的活动,让学生的经验凸显意义,让外在于学生的知识与学生建立起生命联系,使经验与知识相互滋养,成为学生自觉发展的营养。
2
让学生成为真正的教学主体
究竟如何才能让学生真正成为教学主体呢?我们提出了“两次倒转”的学习机制。为什么要提“两次倒转”?因为,相对于人类最初发现知识的过程而言,从根本上说,教学是一个“倒过来”的活动,即学生不必经历实践探索和试误的过程,而可以直接把人类已有的认识成果作为认识对象、学习内容,这正是人类能够持续进步的根本原因,是人类的伟大创举。但是,如果把教学的根本性质(即“倒过来”)作为教学过程本身,那就可能造成教学中的灌输,强调反复记忆和“刷题”,无视学生与知识的心理距离和能力水平,致使学生产生厌学情绪。因此,在强调教学的根本性质是“倒过来”的基础上,要关注学生的能力水平、心理感受,要将“倒过来”的过程重新“倒回去”,即:通过教师的引导和帮助,学生能够主动去“经历”知识发现、发展(当然不是真正地经历,而是模拟地、简约地去经历)的过程。在这个过程中,知识真正成为学生能够观察、思考、探索、操作的对象,成为学生活动的客体,学生成为了教学的主体。
3
帮助学生通过深度加工把握知识本质
学生活动与体验的任务,主要不是把握那些无内在关联的碎片性的、事实性的信息,而是要把握有内在关联的原理性知识,把握人类历史实践的精华。因此,学生的学习主要不是记忆大量的事实,而是要通过主动活动去把握知识的本质。知识的本质需要通过典型的变式来把握,即通过典型的深度活动来加工学习对象,从变式中把握本质。同样,一旦把握了知识的本质便能够辨别所有的变式,举一反三、闻一知十。“一”就是本质、本原、原理,基本概念。当然,本质与变式需要学生对学习对象进行深度加工,这是深度学习要特别重视的地方。
4
在教学活动中模拟社会实践
一般而言,学生是否能把所学知识应用到别的情境中是验证教学效果的常用手段,即学生能否迁移、能否应用。深度学习也强调迁移和应用,但我们不仅强调学生能把知识应用到新的情境中,更强调迁移与应用的教育价值。我们把“迁移与应用”看作学生在学校阶段,即在学生正式进入社会历史实践过程之前,能够在教学情境中模拟体会社会实践的“真实过程”,形成积极的情感态度价值观,因而我们强调“迁移与应用”的综合教育价值,既综合运用知识又实现综合育人的价值,而不仅仅是某个学科知识简单的迁移。它比一般的“迁移与应用”更广阔一些,学生跟社会的联系更强一些。
5
引导学生对知识的发展过程进行价值评价
教学要引导学生对自己所学的知识及知识发现、发展的过程进行价值评价。例如,食物的保鲜与防腐。过去学这个知识,学生通常要掌握“食物是会腐烂的,想让食物保鲜就要加防腐剂”这个知识点,甚至初步掌握防腐技术。但那仅仅是作为一个知识点、一个技能来掌握的。深度学习要让学生讨论,是不是所有的食品都可以用防腐剂来保鲜?是不是防腐剂用得越多越好?这就是一种价值伦理的判断。深度学习不仅仅是学知识,还要让学生在学习知识的过程中对所学的知识进行价值判断。不仅仅是对知识本身,还要对知识发现、发展的过程以及学习知识的过程本身进行价值判断。
04
深度学习的实践模型
图1是深度学习的实践模型。它不是知识单元、内容单元,而是学习单元,是学生学习活动的基本单位。
过去我们的教学知道要学什么,也知道要考什么,但中间的环节,例如学习目标是怎么定的,活动是怎么展开的,我们明确知道的东西很少,所以教学中间的两个环节是“黑箱”。深度学习就是企图把中间的这个“黑箱”打开:目标是什么?根据什么确定了这样的目标?为了达到这个目标我要设计什么样的活动?图1中的箭头看起来像是单向的,实际上应该有无数条线条,表现不断循环往复的过程。
图1中的四个形式要素跟前面讲的理论框架是内在一致的,单元学习主题实际上就是“联想与结构”的结构化的部分。单元学习目标,就是要把握知识的本质。单元学习活动是活动与体验、迁移与应用的一个部分。因此,单元学习主题,就是从“知识单元”到“学习单元”,立足学生的学习与发展,以大概念的方式组织“学习”单元,在学科逻辑中体现较为丰富、立体的活动性和开放性。过去的学科通常都是封闭的,现在要把它变成一个开放的、未完成的东西,有了未完成性和开放性,为学生提供探究的空间,有重新发现的空间。
单元学习目标是从学生的成长、发展来确定和表述;要体现学科育人价值,彰显学科核心素养及其水平进阶。
单元学习活动要注重几个特性。首先是规划性和整体性(整体设计),体现着深度学习强调整体把握的特点。其次是实践性和多样性,这里强调的是学生主动活动的多样性。再次是综合性和开放性,即知识的综合运用、开放性探索。最后是逻辑性和群体性,主要指学科的逻辑线索以及学生之间的合作互助。
持续性评价的目的在于了解学生学习目标达成情况、调控学习过程、为教学改进服务。持续性评价形式多样,主要为形成性评价,是学生学习的重要激励手段。实施持续性评价要预先制定详细的评价方案。
总之,对深度学习的研究,是一个对教学规律持续不断的、开放的研究过程,是对以往一切优秀教学实践的总结、提炼、提升和再命名,需要更多的教师和学者共同的努力和探索。
㈧ 去K书,是干什么的在桂林最近频繁听到,感觉想是去看书的,但是还是不知道是干什么的
去K书育才馆是一家全国连锁的K书中心,引自韩国日本和日本,结合我们大陆的实际情况加以改良的学习中心,现在广州,汕头,桂林均有设馆,贴心服务、专业设施、超高效率、绝对安静四大优势,为中高考、考研考证党的福地。
㈨ 自学、深度学习需要什么硬件环境
自学深度学习需要一个比较安静的环境,其次你应该知道我们其实需要的就是一个了解自身的一个环境,所以在一定程度上你会发现对于我而言,我需要一个相对于冷静还要有一定的温度,还要保持一个恒温才能让我进入到一种深度的学习中。
㈩ 焦李成写的深度学习,优化与识别这本书怎么样
工作太多了啊。语音识别,图像识别,自然语言处理,数据挖掘等等 。而且现在这个方向很火,只要你学的厉害。入职月薪十几k不是问题