mark一下阅读过的论文。
吐槽:各种方面原因吧,导致现在才开始读论文(和原计划比迟了大概45天)。但不管怎么说总算开始了。
2021-5-10:
直系学姐推荐我先读四川大学张意教授的文章并且发给我几篇。打算按照文章发表的先后顺序读,这几篇里面最早的是2016年的:
2021-5-10(下午5点):
当前:
Low-dose CT denoising with convolutional neural network 看完了。
- 写的很简单,就是将最原始的CNN(两层卷积一层全连接)应用在低剂量CT上。但是在当时属于开创性的将二者融合在一块,并且效果不错。
- 没有复现这个代码,这篇文章的数据集不是现在主流的AAPM并且原数据集有点大下载下来只跑一个简单的CNN感觉不值得。
接下来:
读 2017 年的Low-Dose CT With a Residual Encoder-Decoder Convolutional Neural Network,简称 RedCNN 模型。
2021-7-9 :
当前:
- 摸了两个月的鱼~,接下来还得继续摸两年的鱼~。
- RedCNN 终于摸完了,花了两个月的时间来慢慢悠悠的搞这玩意,期间大概的过程是:读论文,然后看网上其他人复现的源码,复现期间通过补李沐的视频课入门了pytorch并通过各种途径(百度,qq群,知乎等)了解了dicom以及医学图像处理的整体流程,然后形成了自己的一套模板。
- 可以说通过RedCNN走了一遍整条路,第一次走所以很慢,但是毕竟还是走下来了,接下来就该大量补论文了,相对来说复现的时间成本应该会显著下降。
接下来:
读 2018 年的A Sparse-View CT Reconstruction Method Based on Combination of DenseNet and Deconvolution
2021-7-15 :
当前:
- A Sparse-View CT Reconstruction Method Based on Combination of DenseNet and Deconvolution 看完并且复现。
- 和 red-cnn 相比,只能说网络更加复杂,但是在一些 trick 上感觉 red-cnn 更好,比如 patch-size,比如一些简单的数据增强。
- 也正好通过这篇文章学习了 DenseNet
接下来:
读 2018 年的Learned Experts’ Assessment-based Reconstruction Network (“LEARN”) for Sparse-data CT
2021-7-20 :
当前:
- Learned Experts’ Assessment-based Reconstruction Network (“LEARN”) for Sparse-data CT 粗读
- 现在CT重建方向要发好文章,需要从CT的投影数据开始入手,而不能再靠基本的 LDCT -> NDCT(单域),而是 Project Data -> LDCT -> NDCT(双域)。
- 关于 Project Data -> LDCT 这部分,首先CT机的工作流程大概清楚了,也了解了 ProjectData 怎么来的,以及需要通过一些方法(如FBP)来得到 LDCT,但是具体的代码实现还没完成。
- 论文进度有点慢了,跳过了剩下的18年的文章和19年的文章,直接看20年的吧。
接下来:
读 2020 年的MAGIC: Manifold and Graph Integrative Convolutional Network for Low-Dose CT Reconstruction
文档信息
- 本文作者:MikasaLee
- 本文链接:/2021/05/10/PaperDaily/
- 版权声明:自由转载-非商用-非衍生-保持署名(创意共享3.0许可证)