修剪模型树:一生掌握这一个学习方法就够了

table of contents

    修剪模型树:一生掌握这一个学习方法就够了

    从学习这个角度来说,我们已然进入到了「笔记软件的时代」。

    笔记软件能够极大地提升我们的学习效率,它把我们过去所有的知识都储存在里面,然后经由不断的主题阅读,慢慢形成一个树状的知识体系

    有了这个树状的知识体系,今后不论我们是学习新知识,还是把知识运用于实践,都能够做到快速理解事物,进而看透事物的本质。

    达到「以旧学新,以简驭繁」的效果。

    然而大多数人还在用非常传统的方法读书——读书顶多画个线、记点笔记,完全没有将知识更充分地吸收和运用,这实在是对知识的一种浪费。

    基于此,我花了很多年,研究出来一套「基于如何使用笔记软件高效学习,进而构建出自己的知识体系」的学习方法。

    我称之为「模型树学习法」

    这个我之前其实已经写了很多了,但是由于文章里只着重讲了原理,实操讲得不够多,导致很多人没有看懂,以为这就是思维导图的2.0版本。

    所以我决定,把《第一期训练营》的课程逐字稿改成文章,发出来供大家学习,这是模型树学习法的修剪篇」

    图片

    为什么要修剪模型树

    截止到目前,我们一共开了七期训练营(马上第八期了),再加上高阶课和免费课等,大致估计,使用模型树学习法的树友已经超过了一万人。

    在这个过程中,很多树友经常会来请教我问题,然后我就会顺势问一下他们的模型树修剪情况,结果我惊讶地发现,很多树友都不太重视模型树的修剪。

    这是个大问题。

    在我看来,「修剪模型树」才是整个模型树学习法的精髓

    模型树学习法其实早期不叫模型树学习法,叫「存量思维」。为什么会取名为存量思维呢?很多树友不太理解。

    那是因为我发现,大家在学习上都有一个共同的问题:

    老是沉醉在知识的增量当中,追求又读了多少本新书,看了多少篇新文章,学了多少堂新课程。结果呢?总是学了又忘,学了又忘,对新知识缺乏内化,对旧知识也缺乏整理。

    看似学了很多,实际真正掌握的知识很少。

    简单来说就是,大多数人在学习上的最大问题,其实不是增量知识输入太少,而是存量知识缺乏整理。

    图片

    于是,为了解决「如何高效地整理我们的存量知识」这个问题,我发明了这套学习方法,取名为存量思维(后来经树友建议,改名为模型树)。

    然而,很多树友在用模型树学习的时候,依然还是在因恐惧而学习,总是沉醉在新知识的学习当中,对过去所学的旧知识缺乏记忆、内化和整理。

    实际上,我们并不需要学习那么多新知识,因为知识是收敛的。所以,只要我们能够很好地把我们过去所学的旧知识整理起来,你就会发现,其实你已经很厉害了。

    这一点,我无数次修剪模型树的经历,都给出了验证。

    我每修剪完一次模型树,都会有一种强烈的感受——其实我们已经学了足够多的知识,只是我们对其缺乏整理

    所以,我亲爱的树友们,一定要经常花时间修剪你们的模型树。
    图片

    如何修剪模型树

    那么,模型树应该怎么修剪呢?

    很多树友不是特别明白,我把第一期训练营的课程逐字稿,免费整理出来供你学习参考。模型树的修剪,其实主要有三大任务:

    • 树叶的修剪:存量的修剪
    • 果实的修剪:模型的修剪
    • 枝干的修剪:结构的修剪
    当然,对于「高阶树友」来说,还有一个隐藏任务——思考事物的本质,寻找第一原理
    注:第一期训练营的课程比较粗糙,只讲了存量和结构的修剪,没讲模型的修剪。
    一、存量的修剪:叶子的修剪
    叶子的修剪其实颇为简单,主要是一个核心任务:继续提炼模型
    前期学习的时候,可能因为具体知识太少或者太懒,不能/不想把模型提炼得很细
    这无伤大雅,但是如果你的叶子已经茂密得不像样子,就必须得修剪修剪了。
    在过去的七期训练营中,我发现很多树友都有一个很大的问题:叶子里面其实还有很多模型,但他并没有提炼出来。

    如果叶子里面还能继续提炼模型,一定要提炼出来。

    图片

    原因有如下几个:
    1、模型才具有指导意义
    很多树友的模型特别粗糙,有的甚至更像是一个框架,而非模型。
    比如,你看到了一个学习方法,你没有把这个学习方法具体是什么给提炼出来,而是直接顺手就把这个知识丢进「如何学习」这个框架里面了。
    这样的话,「如何学习」这个框架其实对你几乎没有什么指导意义,因为如果你只看“如何学习”这四个字,你根本无法获取到任何有用的信息。

    你只有把这个学习方法的「本质是什么、做法是什么」等,把那个具体的东西给提炼出来,这个知识才会变得有意义

    图片

    2、模型帮你减轻记忆负担
    经常,我在提醒大家一定要把模型提炼得细一点的时候,很多树友总是会有一种抗拒感。这种抗拒感来自于你们心中的一个疑问:“把知识分得这么细,会不会加重记忆负担?”
    答案是:不会。实际上这正是在减轻记忆负担
    举个例子,当我们把1000字的知识点提炼成10个模型的时候(一个模型大概4个字),相当于我们是把记忆负担从「记1000个字」转变为了「记40个字」。
    「1000个字」跟「40个字」,到底哪个更好记呢?
    当然是40个字更好记!
    那为什么人们会有一种,模型提炼得越细,记忆负担就会越重的感觉呢?
    那是因为,当他把1000字放在一个模型里的时候,他默认这1000字是不需要记的;而当他把这1000字继续提炼成10个新模型,他就感觉自己立马有了一个新任务——必须记住这10个新模型。
    实际上,这10个新模型是“捡来的”
    如果你之前认为这1000字是不需要记忆的,那么当你把它提炼成10个新模型之后,其实也是不需要记的。而这个过程中,你哪怕无意中多记住了一个模型,那也是捡来的。
    总而言之,根据我过往的经验,用模型来记忆模型和理解模型,可比用很多具体知识来记忆模型和理解模型,轻松得多了。

    大家一定要把观念扭转过来,继续提炼模型不但没有增加记忆负担,反而是在降低记忆负担。

    图片

    3、模型帮你加强记忆
    而且,当你把一个新知识放进一个模型的时候,这本身也会加强你对旧知识的理解和记忆。
    但如果你不提炼模型,什么东西都扔到一块,它就没有这个神奇的效果,又变成了传统的笔记式学习了。
    所以,正确做法应该是什么呢?

    就是「只要叶子里面还能继续提炼模型,就要继续提炼模型,在云笔记里新建一个文档,把新模型和新知识放进去」

    图片

    二、结构的修剪:枝干的修剪
    关于结构的修剪方法,其实要取决于笔记软件的功能。
    传统的笔记软件,更像是一种电脑文件夹,这种笔记软件的修剪,主要是拖动文件夹来实现结构的修剪。
    但是这种修剪其实不太直观,要是我们能够把它转化为导图的形式来修剪就好了,这样我们就可以一边看着整个知识体系,一边修剪了。
    基于这个需求,我们自己开发了一款笔记软件,它可以把文件一键转化为导图,这样我们就可以在导图里面直接修剪模型树了。
    不过,我猜你可能会说,这点幕布也可以。
    其实是不一样的,幕布是把文档内的知识导图化,就像我们可以把一个Word文档里的知识转化为导图一样;而我们是把文档本身导图化,你可以理解为你电脑上那些层层嵌套的文件夹和文档,都能一键转化为导图。

    而对于模型树来说,其实文档里的内容并不是很重要,重要的是模型和结构。

    图片
    因此我们需要的是,把文档本身结构化,而非把文档内部的知识结构化
    所以,我们独创了一个「能够把文档本身一键转化为导图」的功能。具体如何使用呢?

    1、确定目标:选择你将要修剪的某个分支。

    2、转为导图:点击导图,将此分支转为导图。

    「模型树笔记」网页版的网址:www.moxingshu.com.cn,欢迎树友们来参与内测。

    图片

    ▲文档一键转为思维导图
    3、开始修剪
    修剪方法:金字塔原理。金字塔原理里面有两个东西非常重要:
    ①纵向上:以上统下,归类分组。
    ②横向上:不遗漏、不重复。
    我用大白话来讲就是同一层之间,模型的关系必须是同一级的,不能出现包含关系;而上下级之间,必须是包含关系或者是因果关系,不能是同级关系」。
    你可以把它理解为族谱

    你爸就是你爸,你妈就是你妈,你哥就是你哥,你姐就是你姐,你就是你爸妈的儿子/女儿,这个关系必须非常清晰,不能乱了辈分。

    图片

    4、奥卡姆剃刀
    把某些树枝直接减掉,从此踢出我们的模型树。
    这也是查理·芒格一生中奉行的原则,芒格说「我一辈子一直在做两件事:第一,寻找什么东西是有效的,然后坚持去做;发现什么是无效的,然后坚决避免。」

    所以你还需要把那些无效的模型剪掉,但是一开始并不建议你这样做,你需要去实践中验证这些模型是否是有效的,验证完了之后,才能回来剪掉它们。

    图片

    好了,以上就是我修剪模型树的全过程,希望对你有所启发。

     

     

     

    声明:本站文章内容最新发布文章多为原创,同时转载了不少知乎和公众号多年之前就已经发布过的比较好的文章。保存文章的目的是为了提高自己的水平,同时可以看看各位当年的大佬对未来预测是否靠谱,另外也是为了自己查找回顾方便。转载文章每篇都亲自阅读,并且做了整理和修改,删除了一些招生或者培训信息,每篇文章尽量保留原作者信息和意图。