mushding 的小小天地

歡迎來到 mushding 的雜七雜八生活筆記

6/19 實驗室租車一起上山去小烏來玩,難得大家裡開電腦螢幕前,當個一日熱血宅男。至於為什麼是小烏來嘛…這一切的一切都從一個瘋狂的想法開始…

keywords: 小烏來瀑布、巴陵大橋、大溪老茶廠

閱讀全文 »

接下來來看看由 FAIR 何愷明大神在 2017 改進 Faster R-CNN 提出的 Mask R-CNN,實現了 Instance segmentation 實例分割。除了可以有分割的效果外,也可以知道同類別的不同物體 (例如兩隻不同的狗狗)

原論文:Mask R-CNN

keywords: Mask R-CNN

閱讀全文 »

碩論題目下來了,是有關於 3D 的瑕疵辨識,根據前面學長姐的題目來看,看起來這個題目偏向分類任務,可能是瑕疵的二分類吧…,不管題目是什麼,還是多看看一些論文為未來鋪路吧 XD,搞不好哪一天真的用上了。

接下來就先來看看 Object Detection 目標偵測的元老:RCNN 系列吧

keywords: R-CNN、Fast R-CNN、Faster R-CNN、Object Detection

閱讀全文 »

最近 CV 流行自監式學習,目前一共分成兩個支派,一是之前介紹的 Contrastive Learning,一是以 BERT 為首魔改的系列,接下來幾個文章會來談談最近兩篇比較熱門的「類 BERT」論文

既然這麼說了,當然就要先從什麼是 BERT 開始說起啦!(怎麼很像以前看 Transformer 前介紹 Self-Attention 呢…) (CV 界一直在往 NLP 界靠,而我要補的論文也越來越多了…)

https://arxiv.org/pdf/1810.04805.pdf

keywords: BERT

閱讀全文 »

繼上一篇 BEiT 後,2021 11月 FAIR 也提出了一個基於 BERT 改造且應用在電腦視覺上的自監督式學習,其最核心的想法,就是建構出一個更「直覺」「簡單」的模型。模型取名叫做 masked autoencoders (MAE),相較於上一篇 BEiT 效果上差不多,但是整體的訓練流程卻相對簡單許多。

https://arxiv.org/pdf/2111.06377.pdf

keywords: Self-supervised Learning、BERT、MAE

閱讀全文 »

2021 年是 Transformer 發揚光大的一年,短短的一年間推出了許多新的架構,其中尤其又以 Swin Transformer 效果最為突出,其效果甚至超越了當前 CNN 的 SOTA。

2022 年 FAIR 重新探討了 CNN 與 Transformer 之間的關系,試著建立出一個「很像 Transformer 的 CNN 網路」,提出了基於 ResNet 魔改的 ConvNeXt。經實驗得知只使用 CNN 架構的效果就超越了 Swin Transformer。

keywords: ConvNeXt

閱讀全文 »

2021 年 4 月,正是 Transformer 熱潮發揚光大的時候,而 Facebook 這時也趁熱出了一篇把 Transformer 應用在自監督式學習上面,並藉著 distillation 的概念,把網路架構稱作 DINO。得益於 Transformer 的強大,基於 ViT based 的架構成功刷到了當前的 SOTA。

https://arxiv.org/pdf/2104.14294.pdf

keywords: DINO

閱讀全文 »