去K書深度學習中心育才館怎麼樣
㈠ 科普:深度學習和機器學習有何區別
深度學習其實是一個很廣泛的詞語,我身邊就有一家深度學習中心,叫「去K書」的。你可以到那裡去了解一下,帶一個那裡的環境圖給你參考一下。這環境還真的蠻好的
㈡ 一看書就犯困!身為學生該如何進行深度學習
一看書就犯困,這種學生大有人在,平常玩手機的時候,平常和朋友聊天的時候一點都不困,但是只要看上書沒有一會兒就頭腦發昏,困的不行不行了,這個就是因為你學習的節奏沒有把控好,沒有找到合適的學習環境。
學習的過程註定不是輕松的過程,因為雖然說學習的過程確實也能找到一些快樂,但是這些快樂相比較於學習給你帶來的痛苦,我還是微不足道的,所以說學習要有方法有環境,但更要有信念,就是你要知道自己為什麼要學習,學習最終能給自己帶來什麼樣的改變,當你內心的動力足夠強的時候,那麼你的學習狀態可能就會好很多了。
㈢ 目前深度學習技術在人工智慧的應用方面已經放緩了腳步,你認AT下一次浪潮的核心會是哪種技術或應用
摘要 人工智慧在最近三年時間中受到的關注很大程度來自於其在圍棋領域超越人類的「奇跡」,人工智慧一次又一次的證明了人類「圍棋智慧」優越的脆弱性。
㈣ 如何開啟深度學習之旅
如何開啟深度學習之旅?這三大類125篇論文為你導航(附資源下載)
如果你現在還是個深度學習的新手,那麼你問的第一個問題可能是「我應該從哪篇文章開始讀呢?在 G上,s准備了一套深度學習閱讀清單,而且這份清單在隨時更新。
項目地址:
這份清單依照下述 4 條原則建立:
從整體輪廓到細節
從過去到當代
從一般到具體領域
聚焦當下最先進技術
你會發現很多非常新但很值得一讀的論文。這份清單我會持續更新。
1、深度學習的歷史與基礎知識
1.0 書籍
[0] Bengio, Yoshua, Ian J. Goodfellow, and Aaron Courville. 深度學習(Deep learning), An MIT Press book. (2015). (這是深度學習領域的聖經,你可以在讀此書的同時閱讀下面的論文)。
1.1 調查類:
[1] LeCun, Yann, Yoshua Bengio, and Geoffrey Hinton. 深度學習 (Deep learning), Nature 521.7553 (2015): 436-444. (深度學習三位大牛對各種學習模型的評價)
1.2 深度信念網路(DBN)(深度學習前夜的里程碑)
[2] Hinton, Geoffrey E., Simon Osindero, and Yee-Whye Teh. 一個關於深度信念網路的快速學習演算法(A fast learning algorithm for deep belief nets), (深度學習的前夜)
[3] Hinton, Geoffrey E., and Ruslan R. Salakhutdinov. 使用神經網路降低數據的維度(Recing the dimensionality of data with neural networks), (里程碑式的論文,展示了深度學習的可靠性)
1.3 ImageNet 的演化(深度學習從這里開始)
[4] Krizhevsky, Alex, Ilya Sutskever, and Geoffrey E. Hinton. 使用深度卷積神經網路進行 ImageNet 分類任務(Imagenet classification with deep convolutional neural networks)(AlexNet, 深度學習的突破)
[5] Simonyan, Karen, and Andrew Zisserman. 針對大尺度圖像識別工作的的超深卷積網路(Very deep convolutional networks for large-scale image recognition) (VGGNet, 神經網路開始變得非常深!)
[6] Szegedy, Christian, et al. 更深的卷積(Going deeper with convolutions)(GoogLeNet)
[7] He, Kaiming, et al. 圖像識別的深度殘差學習(Deep resial learning for image recognition)(ResNet,超級超級深的深度網路!CVPR--IEEE 國際計算機視覺與模式識別會議-- 最佳論文)
1.4 語音識別的演化
[8] Hinton, Geoffrey, et al. 語音識別中深度神經網路的聲學建模(Deep neural networks for acoustic modeling in speech recognition: The shared views of four research groups)(語音識別中的突破)
[9] Graves, Alex, Abdel-rahman Mohamed, and Geoffrey Hinton. 用深度循環神經網路進行語音識別(Speech recognition with deep recurrent neural networks)(RNN)
[10] Graves, Alex, and Navdeep Jaitly. 面向端到端語音識別的循環神經網路(Towards End-To-End Speech Recognition with Recurrent Neural Networks)
[11] Sak, Ha?im, et al. 語音識別中快且精準的循環神經網路聲學模型(Fast and accurate recurrent neural network acoustic models for speech recognition)(語音識別系統)
[12] Amodei, Dario, et al. Deep speech 2:英語和漢語的端到端語音識別(Deep speech 2: End-to-end speech recognition in english and mandarin)(網路語音識別系統)
[13] W. Xiong, J. Droppo, X. Huang, F. Seide, M. Seltzer, A. Stolcke, D. Yu, G. Zweig,在對話語音識別中實現人類平等(Achieving Human Parity in Conversational Speech Recognition)
當你讀完了上面給出的論文,你會對深度學習歷史有一個基本的了解,深度學習建模的基本架構(包括了 CNN,RNN,LSTM)以及深度學習如何可以被應用於圖像和語音識別問題。下面的論文會讓你對深度學習方法,不同應用領域中的深度學習技術和其局限有深度認識。
2 深度學習方法
2.1 模型
[14] Hinton, Geoffrey E., et al. 通過避免特徵檢測器的共適應來改善神經網路(Improving neural networks by preventing co-adaptation of feature detectors)(Dropout)
[15] Srivastava, Nitish, et al. Dropout:一種避免神經網路過度擬合的簡單方法(Dropout: a simple way to prevent neural networks from overfitting)
[16] Ioffe, Sergey, and Christian Szegedy. Batch normalization:通過減少內部協變數加速深度網路訓練(Batch normalization: Accelerating deep network training by recing internal covariate shift)(2015 年一篇傑出論文)
[17] Ba, Jimmy Lei, Jamie Ryan Kiros, and Geoffrey E. Hinton.層歸一化(Layer normalization)(批歸一化的升級版)
[18] Courbariaux, Matthieu, et al. 二值神經網路:訓練神經網路的權重和激活約束到正 1 或者負 1(Binarized Neural Networks: Training Neural Networks with Weights and Activations Constrained to+ 1 or?1)(新模型,快)
[19] Jaderberg, Max, et al. 使用合成梯度的解耦神經介面(Decoupled neural interfaces using synthetic gradients)(訓練方法的發明,令人驚嘆的文章)
[20] Chen, Tianqi, Ian Goodfellow, and Jonathon Shlens. Net2net:通過知識遷移加速學習(Net2net: Accelerating learning via knowledge transfer) (修改之前的訓練網路以減少訓練)
[21] Wei, Tao, et al. 網路形態(Network Morphism)(修改之前的訓練網路以減少訓練 epoch)
2.2 優化
[22] Sutskever, Ilya, et al. 有關深度學習中初始化與動量因子的研究(On the importance of initialization and momentum in deep learning) (動量因子優化器)
[23] Kingma, Diederik, and Jimmy Ba. Adam:隨機優化的一種方法(Adam: A method for stochastic optimization)(可能是現在用的最多的一種方法)
[24] Andrychowicz, Marcin, et al. 通過梯度下降學習梯度下降(Learning to learn by gradient descent by gradient descent) (神經優化器,令人稱奇的工作)
[25] Han, Song, Huizi Mao, and William J. Dally. 深度壓縮:通過剪枝、量子化訓練和霍夫曼代碼壓縮深度神經網路(Deep compression: Compressing deep neural network with pruning, trained quantization and huffman coding) (ICLR 最佳論文,來自 DeePhi 科技初創公司,加速 NN 運行的新方向)
[26] Iandola, Forrest N., et al. SqueezeNet:帶有 50x 更少參數和小於 1MB 模型大小的 AlexNet-層級精確度(SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and< 1MB model size.) (優化 NN 的另一個新方向,來自 DeePhi 科技初創公司)
2.3 無監督學習/深度生成模型
[27] Le, Quoc V. 通過大規模無監督學習構建高級特徵(Building high-level features using large scale unsupervised learning.) (里程碑,吳恩達,谷歌大腦,貓)
[28] Kingma, Diederik P., and Max Welling. 自動編碼變異貝葉斯(Auto-encoding variational bayes.) (VAE)
[29] Goodfellow, Ian, et al. 生成對抗網路(Generative adversarial nets.)(GAN, 超酷的想法)
[30] Radford, Alec, Luke Metz, and Soumith Chintala. 帶有深度捲麴生成對抗網路的無監督特徵學習(Unsupervised representation learning with deep convolutional generative adversarial networks.)(DCGAN)
[31] Gregor, Karol, et al. DRAW:一個用於圖像生成的循環神經網路(DRAW: A recurrent neural network for image generation.) (值得注意的 VAE,傑出的工作)
[32] Oord, Aaron van den, Nal Kalchbrenner, and Koray Kavukcuoglu. 像素循環神經網路(Pixel recurrent neural networks.)(像素 RNN)
[33] Oord, Aaron van den, et al. 使用像素 CNN 解碼器有條件地生成圖像(Conditional image generation with PixelCNN decoders.) (像素 CNN)
2.4 RNN/序列到序列模型
[34] Graves, Alex. 帶有循環神經網路的生成序列(Generating sequences with recurrent neural networks.)(LSTM, 非常好的生成結果,展示了 RNN 的力量)
[35] Cho, Kyunghyun, et al. 使用 RNN 編碼器-解碼器學習片語表徵用於統計機器翻譯(Learning phrase representations using RNN encoder-decoder for statistical machine translation.) (第一個序列到序列論文)
[36] Sutskever, Ilya, Oriol Vinyals, and Quoc V. Le. 運用神經網路的序列到序列學習(Sequence to sequence learning with neural networks.」)(傑出的工作)
[37] Bahdanau, Dzmitry, KyungHyun Cho, and Yoshua Bengio. 通過共同學習來匹配和翻譯神經機器翻譯(Neural Machine Translation by Jointly Learning to Align and Translate.)
[38] Vinyals, Oriol, and Quoc Le. 一個神經對話模型(A neural conversational model.)(聊天機器人上的序列到序列)
2.5 神經圖靈機
[39] Graves, Alex, Greg Wayne, and Ivo Danihelka. 神經圖靈機器(Neural turing machines.)arXiv preprint arXiv:1410.5401 (2014). (未來計算機的基本原型)
[40] Zaremba, Wojciech, and Ilya Sutskever. 強化學習神經圖靈機(Reinforcement learning neural Turing machines.)
[41] Weston, Jason, Sumit Chopra, and Antoine Bordes. 記憶網路(Memory networks.)
[42] Sukhbaatar, Sainbayar, Jason Weston, and Rob Fergus. 端到端記憶網路(End-to-end memory networks.)
[43] Vinyals, Oriol, Meire Fortunato, and Navdeep Jaitly. 指示器網路(Pointer networks.)
[44] Graves, Alex, et al. 使用帶有動力外部內存的神經網路的混合計算(Hybrid computing using a neural network with dynamic external memory.)(里程碑,結合上述論文的思想)
2.6 深度強化學習
[45] Mnih, Volodymyr, et al. 使用深度強化學習玩 atari 游戲(Playing atari with deep reinforcement learning.) (第一篇以深度強化學習命名的論文)
[46] Mnih, Volodymyr, et al. 通過深度強化學習達到人類水準的控制(Human-level control through deep reinforcement learning.) (里程碑)
[47] Wang, Ziyu, Nando de Freitas, and Marc Lanctot. 用於深度強化學習的決斗網路架構(Dueling network architectures for deep reinforcement learning.) (ICLR 最佳論文,偉大的想法 )
[48] Mnih, Volodymyr, et al. 用於深度強化學習的非同步方法(Asynchronous methods for deep reinforcement learning.) (當前最先進的方法)
[49] Lillicrap, Timothy P., et al. 運用深度強化學習進行持續控制(Continuous control with deep reinforcement learning.) (DDPG)
[50] Gu, Shixiang, et al. 帶有模型加速的持續深層 Q-學習(Continuous Deep Q-Learning with Model-based Acceleration.)
[51] Schulman, John, et al. 信賴域策略優化(Trust region policy optimization.) (TRPO)
[52] Silver, David, et al. 使用深度神經網路和樹搜索掌握圍棋游戲(Mastering the game of Go with deep neural networks and tree search.) (阿爾法狗)
2.7 深度遷移學習/終身學習/尤其對於 RL
[53] Bengio, Yoshua. 表徵無監督和遷移學習的深度學習(Deep Learning of Representations for Unsupervised and Transfer Learning.) (一個教程)
[54] Silver, Daniel L., Qiang Yang, and Lianghao Li. 終身機器學習系統:超越學習演算法(Lifelong Machine Learning Systems: Beyond Learning Algorithms.) (一個關於終生學習的簡要討論)
[55] Hinton, Geoffrey, Oriol Vinyals, and Jeff Dean. 提取神經網路中的知識(Distilling the knowledge in a neural network.) (教父的工作)
[56] Rusu, Andrei A., et al. 策略提取(Policy distillation.) (RL 領域)
[57] Parisotto, Emilio, Jimmy Lei Ba, and Ruslan Salakhutdinov. 演員模仿:深度多任務和遷移強化學習(Actor-mimic: Deep multitask and transfer reinforcement learning.) (RL 領域)
[58] Rusu, Andrei A., et al. 漸進神經網路(Progressive neural networks.)(傑出的工作,一項全新的工作)
2.8 一次性深度學習
[59] Lake, Brenden M., Ruslan Salakhutdinov, and Joshua B. Tenenbaum. 通過概率程序歸納達到人類水準的概念學習(Human-level concept learning through probabilistic program inction.)(不是深度學習,但是值得閱讀)
[60] Koch, Gregory, Richard Zemel, and Ruslan Salakhutdinov. 用於一次圖像識別的孿生神經網路(Siamese Neural Networks for One-shot Image Recognition.)
[61] Santoro, Adam, et al. 用記憶增強神經網路進行一次性學習(One-shot Learning with Memory-Augmented Neural Networks ) (一個一次性學習的基本步驟)
[62] Vinyals, Oriol, et al. 用於一次性學習的匹配網路(Matching Networks for One Shot Learning.)
[63] Hariharan, Bharath, and Ross Girshick. 少量視覺物體識別(Low-shot visual object recognition.)(走向大數據的一步)
3 應用
3.1 NLP(自然語言處理)
[1] Antoine Bordes, et al. 開放文本語義分析的詞和意義表徵的聯合學習(Joint Learning of Words and Meaning Representations for Open-Text Semantic Parsing.)
[2] Mikolov, et al. 詞和短語及其組合性的分布式表徵(Distributed representations of words and phrases and their compositionality.) (word2vec)
[3] Sutskever, et al. 運用神經網路的序列到序列學習(Sequence to sequence learning with neural networks.)
[4] Ankit Kumar, et al. 問我一切:動態記憶網路用於自然語言處理(Ask Me Anything: Dynamic Memory Networks for Natural Language Processing.)
[5] Yoon Kim, et al. 角色意識的神經語言模型(Character-Aware Neural Language Models.)
[6] Jason Weston, et al. 走向人工智慧-完成問題回答:一組前提玩具任務(Towards AI-Complete Question Answering: A Set of Prerequisite Toy Tasks.) (bAbI 任務)
[7] Karl Moritz Hermann, et al. 教機器閱讀和理解(Teaching Machines to Read and Comprehend.)(CNN/每日郵件完形風格問題)
[8] Alexis Conneau, et al. 非常深度捲曲網路用於自然語言處理(Very Deep Convolutional Networks for Natural Language Processing.) (在文本分類中當前最好的)
[9] Armand Joulin, et al. 詭計包用於有效文本分類(Bag of Tricks for Efficient Text Classification.)(比最好的差一點,但快很多)
㈤ 深度學習太枯燥,堅持不下去怎麼辦
logo精彩文章免費看立即下載
學習,我們為什麼堅持不下去?
劉小愛
簡書創作者
0.1072016-06-15 09:14
關於讀書
我們先假定這樣一個場景:
如果有一個人從小就立志將來要考上清華北大,請問他認認真真聽講一節課有用么?
答案是並沒有什麼卵用
就算他一學期都很努力,期末拿年級第一名;就算他小學初中年年都是優秀學生;就算他靠著自己的努力進了省重點中學。
可那又怎樣,他照樣可能進不了清華北大。
所以,學習對於我們來說有2個重要難題。
反饋周期太長
首先,我們得明確:學習是一件需要長期積累的事情。我們都明白,多看書,可以改變一個人的氣質,可以豐富一個人的見識,是一件百利而無一害的事情。
人們常說,書中自有黃金屋,書中自有顏如玉,但是你看書一天,一星期,一個月,難道就變帥氣了么,就變富有了么?回答是並沒有,短時間你是看不到這種改變的。
那麼這就帶來了一個難題,就是學習的反饋周期太長了,而一個人一旦「自身現狀」和"個人預期"之間出現矛盾就會產生厭倦,人又是具有反饋思維的生物,當他長時間無法從某件事情中獲得反饋時,就會更加厭倦,那麼放棄的幾率便會更大。
付出不一定會有回報
小Q在剛上高一的時候就非常努力,每天下晚自習後都會拿著作業,開著台燈做一會作業,當別人都已經進入夢鄉了,他還在學習,同時他也比別人起來的早,遇到問題了也會及時的向老師請教,然而他資質確實一般,學習成績也一直只是中等偏上一點點的水平。小Q知道自己的情況,於是給自己定了一個不算高的目標:考上一本。
然而最終他並沒有考上一本,連本科的分數線都還差一點。心灰意冷的他最終選擇了復讀,復讀那一年,他更努力了,起的更早,睡的更晚,但第二次的高考他還是沒能考上一本,最後他選擇了去了一所二本院校。
我們現在回過頭來看,我們可以說小Q方法沒選擇對,可以說他努力錯了方向,還可以說他學習效率太低。但不管怎樣,我們不能否定他的付出,他確確實實是付出了很多,卻沒有得到相應的回報。
故事說到這,也許恰到好處,告訴了我們學習是一件付出了不一定會有回報的事情。但是,故事最終都會有一個美好的結局,如果你看來它並不美好,那是因為這個故事還沒有結束...
小Q在大學照樣很努力,一有空就會去圖書館里看書,時不時的也會寫幾篇文章發布在校園論壇上。就這樣,四年的積累,當別人畢業都在抱怨找工作難時,他很容易就拿到了一家創業公司文案編輯的offer,此外,他還成為了某網站的簽約作家,光靠稿費就能養活他自己。
有一種道理叫功不唐捐
功不唐捐,佛家語
「唐捐」是佛經里的話,意思就是泡湯了、白費了。功不唐捐就是努力絕不泡湯、絕不白費。一個人的努力,在看不見想不到的時候,在看不見想不到的地方,會生根發葉、開花結果。
天道酬請,功不唐捐
最後,灌一碗雞湯:
這個世界上,有的人從小就十分優秀,很多問題看一遍就會;有的人從小就資質平平,也許他付出了雙倍的努力都不及別人的一半。在學習這件事情上,有太多的不公平和不確定:有的人能在天上飛,有的人只能在地上跑。但不管怎樣,難道因為發現已經有很多人在天上飛了,我們就要停止在地上奔跑么?
不是,只要我們跑的更快,總有一天會飛起來
㈥ 西安深度學習發展怎麼樣
學習就有用。就比如看書有沒有用,短時間看不出來,但長時間的積累,你就會發生變化。
㈦ 深度學習的課程可以在哪看到
深度學習就是企圖把中間的這個「黑箱」打開:目標是什麼?根據什麼確定了這樣的目標?為了達到這個目標我要設計什麼樣的活動?
01
深度學習的必要性
改革開放40年,基礎教育研究與實踐的最大成就之一,就是樹立了「學生是教育主體」的觀念。但是,在課堂教學中,學生並未真正成為主體,大多數課堂教學也沒有發生根本變化。為什麼?因為大多數教學改革尚未抓住教學的根本,對課堂教學的研究還只停留在文本上、觀念上,沒有落到實際行動中。開展深度學習的研究與實踐正是把握教學本質的一種積極努力,是我國課程教學改革走向深入的必需。
當前,智能機器尤其是智能化穿戴設備的大量出現,部分傳統職業已被替代,甚至有人認為教師和教學也可能被替代而消失。在這樣的情形下,我們不得不思考:在智能化時代,真的不需要教學了嗎?真的不需要教師了嗎?如果把教學僅僅看作是知識的刻板傳遞的話,那麼,智能技術完全可以勝任,教學和教師完全可以被智能機器替代了。借用馬雲(阿里巴巴集團創始人)的話說,在一個把機器變成人的社會,如果教學還在把人變成機器,是沒有出路的。
蒂姆·庫克(蘋果公司現任CEO)說:「我不擔心機器會像人一樣思考,我擔心的是人會像機器一樣思考。」正是由於智能機器的出現和挑戰,我們必須嚴肅思考:教學究竟應該是怎麼樣的?教學存在的意義和價值究竟是什麼?
事實上,教學的價值和意義一直都是培養人,但智能時代讓它的意義和價值更加鮮明,不能再被忽視。因此,當機器已不只以存儲為功能,而開始像人一樣思考的時候,我們清醒地意識到:教學絕不是知識傳遞,甚至知識學習本身也只是培養人的手段,教學的最終目的是實現學生的全面發展。因此,幫助學生通過知識學習、在知識學習中形成核心素養,在知識學習中成長和發展,成為教學的首要任務。
02
深度學習的內涵
什麼是深度學習?可以從兩個層面來理解。
一個是初級層面,是針對教學實踐領域的弊端提出來的,是針砭時弊的一種提法。深度學習是針對實踐中存在大量的機械學習、死記硬背、知其然而不知其所以然的淺層學習現象而提出的。這里的「深度」是指學生的深度學習。我們並不強求教師必須採用某種固定的模式或方法,而是強調,教師要用恰當的方法去引發、促進、提升學生的深度學習。在這個意義上,深度學習是淺層學習的反面,是針砭時弊的。
但是,深度學習絕不只停留於這個層面。深度學習還有另一層面的理解,即高級的層面:深度學習並不只是為了促進學生高級認知和高階思維,而是指向立德樹人,指向發展核心素養,指向培養全面發展的人。因此,深度學習強調動心用情,強調與人的價值觀培養聯系在一起。
每個教師都應該想:我今天的教學會給學生造成什麼樣的影響?能夠讓他有善良、正直的品性嗎?會讓他熱愛學習嗎?會影響他對未來的積極期待嗎?……總之,深度學習的目的是要培養能夠「百尺竿頭更進一步」、能夠創造美好生活的人,是生活在社會歷史進行中的、具體的人,而非抽象意義上的有高級認知和高階思維的偶然個體。
綜上,我們所說的深度學習,必須滿足以下四個要點:
▲ 深度學習是指教學中學生的學習而非一般意義上學習者的自學,因而特別強調教師的重要作用,強調教師對學生學習的引導和幫助。
▲ 深度學習的內容是有挑戰性的人類已有認識成果。也就是說,需要深度加工、深度學習的內容一定是具有挑戰性的內容,通常是那些構成一門學科基本結構的基本概念和基本原理,而事實性的、技能性的知識通常並不需要深度學習。在這個意義上,深度學習的過程也是幫助學生判斷和建構學科基本結構的過程。
▲ 深度學習是學生感知覺、思維、情感、意志、價值觀全面參與、全身心投入的活動,是作為學習活動主體的社會活動,而非抽象個體的心理活動。
▲ 深度學習的目的指向具體的、社會的人的全面發展,是形成學生核心素養的基本途徑。
根據這四個要點,我們給深度學習下了一個界定:「所謂深度學習,就是指在教師引領下,學生圍繞著具有挑戰性的學習主題,全身心積極參與、體驗成功、獲得發展的有意義的學習過程。在這個過程中,學生掌握學科的核心知識,理解學習的過程,把握學科的本質及思想方法,形成積極的內在學習動機、高級的社會性情感、積極的態度、正確的價值觀,成為既具獨立性、批判性、創造性又有合作精神、基礎扎實的優秀的學習者,成為未來社會歷史實踐的主人」。
03
課堂教學如何實現深度學習?
1
實現經驗與知識的相互轉化
「經驗」與「知識」常被看作是彼此對立的一對概念,事實上卻有著緊密關聯。深度學習倡導通過「聯想與結構」的活動將二者進行關聯、轉化。簡單來說,「聯想與結構」是指學生通過聯想,回想已有的經驗,使當前學習內容與已有的經驗建立內在關聯,並實現結構化;而結構化了的知識(與經驗)在下一個學習活動中才能被聯想、調用。在這個意義上,「聯想與結構」所要處理的正是知識與經驗的相互轉化,即經驗支持知識的學習,知識學習要結構化、內化為個人的經驗。也就是說,學生個體經驗與人類歷史知識不是對立、矛盾的,而是相互關聯的,教師要找到它們的關聯處、契合處,通過引導學生主動「聯想與結構」的活動,讓學生的經驗凸顯意義,讓外在於學生的知識與學生建立起生命聯系,使經驗與知識相互滋養,成為學生自覺發展的營養。
2
讓學生成為真正的教學主體
究竟如何才能讓學生真正成為教學主體呢?我們提出了「兩次倒轉」的學習機制。為什麼要提「兩次倒轉」?因為,相對於人類最初發現知識的過程而言,從根本上說,教學是一個「倒過來」的活動,即學生不必經歷實踐探索和試誤的過程,而可以直接把人類已有的認識成果作為認識對象、學習內容,這正是人類能夠持續進步的根本原因,是人類的偉大創舉。但是,如果把教學的根本性質(即「倒過來」)作為教學過程本身,那就可能造成教學中的灌輸,強調反復記憶和「刷題」,無視學生與知識的心理距離和能力水平,致使學生產生厭學情緒。因此,在強調教學的根本性質是「倒過來」的基礎上,要關注學生的能力水平、心理感受,要將「倒過來」的過程重新「倒回去」,即:通過教師的引導和幫助,學生能夠主動去「經歷」知識發現、發展(當然不是真正地經歷,而是模擬地、簡約地去經歷)的過程。在這個過程中,知識真正成為學生能夠觀察、思考、探索、操作的對象,成為學生活動的客體,學生成為了教學的主體。
3
幫助學生通過深度加工把握知識本質
學生活動與體驗的任務,主要不是把握那些無內在關聯的碎片性的、事實性的信息,而是要把握有內在關聯的原理性知識,把握人類歷史實踐的精華。因此,學生的學習主要不是記憶大量的事實,而是要通過主動活動去把握知識的本質。知識的本質需要通過典型的變式來把握,即通過典型的深度活動來加工學習對象,從變式中把握本質。同樣,一旦把握了知識的本質便能夠辨別所有的變式,舉一反三、聞一知十。「一」就是本質、本原、原理,基本概念。當然,本質與變式需要學生對學習對象進行深度加工,這是深度學習要特別重視的地方。
4
在教學活動中模擬社會實踐
一般而言,學生是否能把所學知識應用到別的情境中是驗證教學效果的常用手段,即學生能否遷移、能否應用。深度學習也強調遷移和應用,但我們不僅強調學生能把知識應用到新的情境中,更強調遷移與應用的教育價值。我們把「遷移與應用」看作學生在學校階段,即在學生正式進入社會歷史實踐過程之前,能夠在教學情境中模擬體會社會實踐的「真實過程」,形成積極的情感態度價值觀,因而我們強調「遷移與應用」的綜合教育價值,既綜合運用知識又實現綜合育人的價值,而不僅僅是某個學科知識簡單的遷移。它比一般的「遷移與應用」更廣闊一些,學生跟社會的聯系更強一些。
5
引導學生對知識的發展過程進行價值評價
教學要引導學生對自己所學的知識及知識發現、發展的過程進行價值評價。例如,食物的保鮮與防腐。過去學這個知識,學生通常要掌握「食物是會腐爛的,想讓食物保鮮就要加防腐劑」這個知識點,甚至初步掌握防腐技術。但那僅僅是作為一個知識點、一個技能來掌握的。深度學習要讓學生討論,是不是所有的食品都可以用防腐劑來保鮮?是不是防腐劑用得越多越好?這就是一種價值倫理的判斷。深度學習不僅僅是學知識,還要讓學生在學習知識的過程中對所學的知識進行價值判斷。不僅僅是對知識本身,還要對知識發現、發展的過程以及學習知識的過程本身進行價值判斷。
04
深度學習的實踐模型
圖1是深度學習的實踐模型。它不是知識單元、內容單元,而是學習單元,是學生學習活動的基本單位。
過去我們的教學知道要學什麼,也知道要考什麼,但中間的環節,例如學習目標是怎麼定的,活動是怎麼展開的,我們明確知道的東西很少,所以教學中間的兩個環節是「黑箱」。深度學習就是企圖把中間的這個「黑箱」打開:目標是什麼?根據什麼確定了這樣的目標?為了達到這個目標我要設計什麼樣的活動?圖1中的箭頭看起來像是單向的,實際上應該有無數條線條,表現不斷循環往復的過程。
圖1中的四個形式要素跟前面講的理論框架是內在一致的,單元學習主題實際上就是「聯想與結構」的結構化的部分。單元學習目標,就是要把握知識的本質。單元學習活動是活動與體驗、遷移與應用的一個部分。因此,單元學習主題,就是從「知識單元」到「學習單元」,立足學生的學習與發展,以大概念的方式組織「學習」單元,在學科邏輯中體現較為豐富、立體的活動性和開放性。過去的學科通常都是封閉的,現在要把它變成一個開放的、未完成的東西,有了未完成性和開放性,為學生提供探究的空間,有重新發現的空間。
單元學習目標是從學生的成長、發展來確定和表述;要體現學科育人價值,彰顯學科核心素養及其水平進階。
單元學習活動要注重幾個特性。首先是規劃性和整體性(整體設計),體現著深度學習強調整體把握的特點。其次是實踐性和多樣性,這里強調的是學生主動活動的多樣性。再次是綜合性和開放性,即知識的綜合運用、開放性探索。最後是邏輯性和群體性,主要指學科的邏輯線索以及學生之間的合作互助。
持續性評價的目的在於了解學生學習目標達成情況、調控學習過程、為教學改進服務。持續性評價形式多樣,主要為形成性評價,是學生學習的重要激勵手段。實施持續性評價要預先制定詳細的評價方案。
總之,對深度學習的研究,是一個對教學規律持續不斷的、開放的研究過程,是對以往一切優秀教學實踐的總結、提煉、提升和再命名,需要更多的教師和學者共同的努力和探索。
㈧ 去K書,是干什麼的在桂林最近頻繁聽到,感覺想是去看書的,但是還是不知道是干什麼的
去K書育才館是一家全國連鎖的K書中心,引自韓國日本和日本,結合我們大陸的實際情況加以改良的學習中心,現在廣州,汕頭,桂林均有設館,貼心服務、專業設施、超高效率、絕對安靜四大優勢,為中高考、考研考證黨的福地。
㈨ 自學、深度學習需要什麼硬體環境
自學深度學習需要一個比較安靜的環境,其次你應該知道我們其實需要的就是一個了解自身的一個環境,所以在一定程度上你會發現對於我而言,我需要一個相對於冷靜還要有一定的溫度,還要保持一個恆溫才能讓我進入到一種深度的學習中。
㈩ 焦李成寫的深度學習,優化與識別這本書怎麼樣
工作太多了啊。語音識別,圖像識別,自然語言處理,數據挖掘等等 。而且現在這個方向很火,只要你學的厲害。入職月薪十幾k不是問題