本來想從算法角度輸出一下文章導出鏈接(即給別人做外鏈)的必要性,但今天事情真的好多,好幾個事情等著交付。所以就拿一個上周在星球分享過的話題出來聊聊,也就是怎么處理碎片化信息。
一般而言,我的信息源有很多,比如專業的論壇、博客、Newsletter、RSS 的訂閱源、付費渠道,等等。要知道這些信息真的非常雜,且這些信息中也有不少垃圾。所以從這個角度出發,好好設計下「碎片化信息」的消化流程就比較重要。
我的做法是,將各個渠道的信息統一歸集起來,然后利用碎片化的時間去快速篩選。在篩選的過程中,碰到有價值的內容后再單獨拎出來。且整個過程盡量做到高效,至于那種一眼掃過去就能明白的,快速劃過去不要浪費時間。
剩下的就是一些需要點時間處理的內容了,這主要也有兩塊。一是需要時間閱讀的,如果能當場讀完,那就立馬消化掉,不要等后面再來翻這些內容。二是需要時間消化的(比如那些最新的知識、最新的動態),那就將這些信息打上標簽,存到軟件里面,等專門找一塊時間出來消化。
當然,這些「存到軟件」的步驟也有不少講究。其一是信息的初加工,其二是儲存軟件的選擇。
信息初加工這塊,我的習慣是對于每一條需要消化的信息,寫一段 50-100 字左右的描述,講清楚這條信息是什么、里面主要的邏輯結構是什么、可以怎么用,以及這條信息的價值評估。
這段描述文字寫完后,剩下的就是給信息打個標簽,然后扔到相應軟件里。
對于存儲軟件的選擇,不同人可能有不同的標準吧,比如有小伙伴喜歡用 Excel 這種傳統辦公軟件,或者是 Notion 這種新型的文檔協作軟件。但對于這些碎片的、不成體系的內容,我一般都是扔到「電報」里去。
主要還是因為這款軟件的隱私保護做的還可以,且多端同步,信息的同步都很不錯。另外還有一個點,就是可以很方便的給信息作標簽,便于后續的搜索。且對于那些占據儲存空間很大的素材,也完全可以扔到這個軟件中去,將其當作自己的私人網盤來使用。
以上便是我已經實踐了很久的消化流程,后續如果空閑時間多點,我會考慮寫個機器人,將 AI 的能力引入進來,協助我做信息整理這部分工作。也就是將一個鏈接扔進去后,機器人能幫我自動分析出鏈接中的文本內容,講的是什么東西,并把信息大綱整理出來。
這樣整體的消化效率便能大大提升了,也好玩了不少。

文章為作者獨立觀點,不代表DLZ123立場。如有侵權,請聯系我們。( 版權為作者所有,如需轉載,請聯系作者 )
網站運營至今,離不開小伙伴們的支持。 為了給小伙伴們提供一個互相交流的平臺和資源的對接,特地開通了獨立站交流群。
群里有不少運營大神,不時會分享一些運營技巧,更有一些資源收藏愛好者不時分享一些優質的學習資料。
現在可以掃碼進群,備注【加群】。 ( 群完全免費,不廣告不賣課!)
