12:论文笔记:YOLOv4(1)
Abstract这是一篇2020年的paper,代表着yolov4的出现,也是一个小的里程碑maybe。首先在此之前的yolov3,在模型的多尺度预测和深度的网络,有一些提升。小目标检测的性能更加的优良。 有很多的特征能够提高卷积神经网络的性能,这一篇论文似乎是对于这些进行了一个测试 We assume that such universal features include Weighted-Residual-Connections (WRC), Cross-Stage-Partial-connections (CSP), Cross mini-Batch Normalization (CmBN), Self-adversarial-training (SAT) and Mish-activation. We use new features: WRC, CSP, CmBN, SAT, Mish activation, Mosaic data augmentation, CmBN, DropBlock regularization, and CIoU loss, and ...
11:记录一个科研小工具
开门见山这估计要是我最短的一个blog了。我们请出他的名字,uithub。 好比我们打开一个github网页 我们把网页的G换成U:jyfc/ebook: classic books of computer science 然后你会发现,有它的所有的文本,都在一个页面上! just ctrl+c and ask deepseek!
10:四月总结和vibe coding
工具飞速迭代,我想,有一个朴素地辩证法。我们能发挥出的实力,是自己的内涵+工具的外延。如果工具飞速进步,而我们的大脑不断地萎缩,那我们最后是能够担起大任的吗。显然不是。 所以,核心在于,让自己变得更聪明,而不是让工具变得更智能。外本内末,歧路亡羊。我还是要去走那一条最为艰难的道路 我想,何其有幸,我的确是接触到了一个,很大程度上的,跨时代的一个工具。事实上,我才接触codex没两天,但目前摆在我面前的,是一个前所未有的,工具,它来自karpathy的一个我认为天才的想法: One day, frontier AI research used to be done by meat computers in between eating, sleeping, having other fun, and synchronizing once in a while using sound wave interconnect in the ritual of “group meeting”. That era is long gone. Research is now entire...
9:读经典,attention is all you need
这一篇论文,在2017年以一个标题党的姿态产生,但是当时对它提起注意的人似乎没有那么多。但就是这么一个work,在如今的各种领域之内攻城略地,几乎没有很多人注意到,这开启的是一个AI的新时代,不断攻城略地,从机器翻译到整个NLP,然后在现在,几乎打遍了CV。现在,没有用到transformer的地方已经很少了。 In this work we propose the Transformer, a model architecture eschewing(故意避免) recurrence and instead relying entirely on an attention mechanism to draw global dependencies between input and output. The Transformer allows for significantly more parallelization and can reach a new state of the art in translation quality after being trained ...
8:caformer的复现
概述我们进入OSformer的复现,论文名称为Cross-domain-aware deep unfolding transformer for hyperspectral image super-resolution,提供的源代码https://github.com/Caoxuheng/HIFtool,这是一个高光谱融合方向的一个项目融合包,里面提供了多种方法,大致分为三类:model-based,supervised,unsupervised.我们的OSformer就是基于监督学习的一个方法 数据集在文件夹multispectual image dataset中,我们可以看到一共有如下的五个文件夹,分别是 CAVE chikusei Pavia QB xiongan我们按照文件夹里面的md文件进行下载 bug调试20260225经过了一个春节小长假,调试的进度需要重新找回来。由于我们的笔记本的32G的内存不足以加载需要60G内存的程序,而在Linux中出现killed报错,我们在autodl中新建了一个实例,用以解决问题。autodl的一大好处是,其中的内存有120G,远...
7:论文笔记-Frustratingly Simple Few-Shot Object Detection
由于我的挑战杯是小样本检测,所以我想通过这样一篇文章,对于这个网络和这一个东西有着一个基础的了解 读论文abstract Detecting rare objects from a few examples is an emerging problem. Prior works show metalearning is a promising approach. But, finetuning techniques have drawn scant attention. 从少量样本中完成特征的检测是一个比较难的任务,在这个的研究方法中,元学习得到了广泛的关注,而微调没有引起很多的关注。 We find that fine-tuning only the last layer of existing detectors on rare classes is crucial to the few-shot object detection task. 只是对于现有的探测器的最后一层进行微调,感觉有点意思。 conclusion We proposed a simple two-...
6:论文笔记 Equalization Loss v2 A New Gradient Balance Approach for Long-tailed Object Detection
这是一个 EQLv2 (Equalization Loss v2) 目标检测项目,基于MMDetection v2框架开发并进行了深度定制。该项目主要解决长尾分布(long-tail distribution)下的目标检测问题——即数据集中大量类别具有极少的样本,导致模型在这些稀有类别上的表现极差。考虑到ddl马上到来,我们对于代码进行先行的处理。https://github.com/tztztztztz/eqlv2。 这个项目代码目前支持COCO、LVIS、OpenImages等多个长尾分布的主流的数据集。 首先我们对于项目的结构进行分析如下: 123456789101112131415161718192021222324252627mmdetection-eql/├── configs/ # 配置文件目录(37,200+ tokens,核心)│ ├── end2end/ # EQL/EQLv2 核心配置文件│ │ ├── eqlv2_r50_8x2_1x.py # EQLv2配置│ │ ├── eql_...
5:记录一次autodl的codex配置
记录一次配置首先安装node.js 123apt update apt install -y curl curl -fsSL https://deb.nodesource.com/setup_lts.x | bash -apt-get install -y nodejs 验证是否安装成功 12node -v npm -v 安装codex 12npm i -g @openai/codex --registry=https://registry.npmmirror.comcodex --version 创建配置 123mkdir -p ~/.codexapt update && apt install -y nanonano ~/.codex/config.toml 写以下的配置文件 1234567891011121314151617181920212223242526272829model_provider = "OpenAI" model = "gpt-5.4" model_reasoning_effort = "...
4:读后感——何为好的论文
读后感尼古拉斯-卡里尼,和他的网站:如何赢得最佳论文奖 (或者,关于如何进行重要研究的个人观点) 仅仅做一个记录,来自一个科研的小白。 想出最值得写论文的点子要有好的品味,去挑选一个问题 The single most important skill to develop for high-impact research is good taste in what problems are worth solving. If you have good taste, and you keep writing papers, eventually you’ll write one with exceptionally high impact. But if you have bad taste, you could write a hundred papers and never do anything of consequence. 也许我们可以发一百篇论文,但如果我们的文字不具有品味,不是在一开始就在做一件正确的事,那么也许,我们终其一生,never do anything ...
E1.2 C语言程序设计
把今天认真折叠好,明天自然会有展开的光 常量常量是程序中最基本的元素,有字符常量,整数常量,浮点数常量和枚举常量。字符常量要用单引号括起来,例如上面的'}',单引号只能括一个字符而不能像双引号那样括一串字符。在格式化字符串中%号(Percent Sign)后面加上字母c、d、f分别表示字符型、整型和浮点型的转换说明(Conversion Specification). 1、总结前面介绍的转义序列的规律,想想在printf的格式化字符串中怎么表示一个%字符?写个小程序试验一下。 其它的他多数符号,都是用反斜杠\进行转义,但是对于%而言,是用其本身进行转义,即为%% 123456#include <stdio.h>int main(){int score = 100;printf("小明的准确率是:%d%%\n",score);return 0;} 变量变量(Variable)是编程语言最重要的概念之一,变量是计算机存储器中的一块命名的空间,可以在里面存储一个值(Value),存储的值是可以随时变的,比如这次存...


