:nllin

摘要:本文提出了一种用卷积神经网络(CNN)构建的图像去雾模型,称为一体化除雾网络(AOD-Net)。它是基于重新配制的大气散射模型设计的。 AOD-Net不是像大多数先前模型那样分别估算传输矩阵和大气光,而是通过轻量级CNN直接生成清晰图像。这种新颖的端到端设计使得将AOD-Net嵌入到其他深度模型(例如,faster R-CNN)中变得容易,以改善对模糊图像的高级任务性能。在合成和自然模糊图像数据集上的实验结果证明了我们在PSNR,SSIM和主观视觉质量方面优于现有技术的优越性能。此外,当将AOD-Net与faster R-CNN连接并从头到尾训练联合管道时,我们目睹了对模糊图像的对象检测性能的大幅提升。

关键词:去雾,图像恢复,深度学习,联合训练,物体检测。

目录

引言

1. 前人的工作

2. 存在的问题

3. 我们的贡献

提出的方法

1. 物理模型

2. 网络设计

实验结果

1. 数据集和实现

2. 合成数据集上的质量评估

3. 视觉效果评估

4. 多尺度特征的有效性

5. 速度对比

高层视觉任务:评估和提升目标检测任务中的去雾

1. Pascal-voc2007上的合成雾霾图像的质量评估

2. 自然雾霾图像的质量评估

3. 到底那个起到实际帮助:特定任务的除雾网络或只是添加更多参数?

讨论和结论

由于存在诸如灰尘,雾气和烟雾的气溶胶,雾度的存在给相机捕获的图像增加了复杂的噪声。 它会大大降低室外图像的可见度,对比度降低,表面颜色变暗。 此外,模糊的图像将使许多后续高级计算机视觉任务的有效性受到威胁,例如物体检测和识别。 因此,广泛考虑了去雾算法,作为(不适定的)图像恢复和增强的具有挑战性的实例。 类似于图像去噪和超分辨率[37],[15]等其他问题,早期的去雾工作[23],[30],[38],[12]假设来自同一场景的多个图像的可用性。 然而,从单个图像中去除雾霾现在已经占据了主导地位,因为它对于实际设置更为实用[7]。 本文重点研究了单幅图像去雾问题。

作为用于去雾的先验知识,模糊图像生成遵循广为接受的物理模型(详见第II-A节)。除了估计全球大气光强度之外,已经认识到实现雾霾去除的关键是传输矩阵的恢复。

[7]通过估计场景的反照率提出了一种物理接地的方法。

[9],[34]发现有效暗通道先验(DCP)更可靠地计算传输矩阵,然后是一系列工作

[13],[24],[36]。 [20]强制执行边界约束和上下文正则化以获得更清晰的恢复图像。在

[33]中提出了一种自动恢复大气光的加速方法。

[45]先前开发了颜色衰减,并为模糊图像创建了场景深度的线性模型,然后以监督的方式学习了模型参数。

[16]说明了联合估计场景深度并从模糊视频序列中恢复清晰潜像的方法。

[1]提出了一种基于非局部先验(雾度线)的算法,基于清晰图像中的每个颜色簇成为RGB空间中的雾度线的假设。

所有上述方法都取决于物理模型和各种复杂的图像统计假设。然而,由于从单个图像估计物理参数通常是不准确的,因此上述方法的去雾性能似乎并不总是令人满意。

最近,随着卷积神经网络(CNN)在计算机视觉任务中取得了普遍的成功,它们也被引入到图像去雾中。

DehazeNet [3]提出了一种可训练的模型来估计一个模糊图像的传输矩阵。

[27]进一步开发了多尺度CNN(MSCNN),它首先生成了一个粗尺度的传输矩阵,然后对其进行了细化。

1)没有端到端去雾:大多数用于图像恢复和增强的深度学习方法完全包含端到端建模:训练模型以直接从损坏的图像中回归清晰的图像。例子包括图像去噪[42],去模糊[31]和超分辨率[41]。相比之下,迄今为止还没有用于除雾的端到端深度模型,它直接从模糊的模型中回归清晰的图像。虽然乍一看可能看起来很奇怪,但人们需要意识到雾霾本质上会带来不均匀的依赖于信号的噪声:由雾度引起的表面场景衰减与相机表面之间的物理距离相关(即像素深度)。这与假设与信号无关的噪声的大多数图像劣化模型不同,在这种情况下,所有信号都经历相同的参数化降级过程。因此,可以使用一个静态映射功能轻松建模其恢复模型。同样不能直接应用于除雾:降解过程因信号而异,并且恢复模型也必须是输入自适应的。

现有方法具有相同的信念,即估计精确的中间传输图是从雾霾中恢复清晰的场景的关键[1],[3],[27]。通过经验规则分别计算大气光,并且基于物理模型恢复清晰图像。尽管是直观的,但是这样的过程不直接测量或最小化重建失真。用于估计传输矩阵和大气光的两个单独步骤中的误差将累积并且可能相互放大。结果,传统的单独管道产生了次优的图像恢复质量。

2)缺少与高级视觉任务的衔接:目前,去雾模型依赖于两组评估标准:(1)对于合成模糊图像,其对应的清晰图像已知,通常计算PSNR和SSIM来测量确保恢复保真度; (2)对于没有清晰图像的真实自然模糊图像,唯一可用的去雾效果比较是主观视觉质量。然而,与图像去噪和超分辨率结果不同,他们视觉伪像的抑制效果是可见的(例如,在纹理和边缘上),现有技术的去雾模型之间的视觉差异[1],[3],[27]通常表现在全球的光照和色调中,并且通常太微妙而无法分辨。

一般图像恢复和增强,被称为低级视觉任务的一部分,通常被认为是中级和高级视觉任务的预处理步骤。众所周知,诸如物体检测和识别之类的高级计算机视觉任务的性能将在存在各种劣化的情况下恶化,并且然后在很大程度上受到图像恢复和增强的质量的影响。然而,根据我们的最佳知识,没有探索将去雾算法和结果与高级视觉任务性能相关联。

在本文中,我们提出了一体化除雾网络(AOD-Net),这是一种基于CNN的除雾模型,具有两个关键创新,以应对上述两个挑战:

AOD-Net在合成模糊图像上进行训练,并在合成和真实自然图像上进行测试。实验证明了AOD-Net优于几种最先进的方法,不仅包括PSNR和SSIM(见图1),还包括视觉质量(见图2)。作为轻量级和高效率的型号,AOD-Net的耗费时间低至0.026秒,可以使用单个GPU处理一个480×640图像。当与更快的R-CNN [26]连接时,AOD-Net在改善模糊图像的物体检测性能方面明显优于其他去雾模型,当我们共同调整AOD-Net和fasterrcnn的流水线时,性能得到进一步提升。

本文从以前的会议版本[14]扩展而来。本文最引人注目的改进在于第四部分,我们对评估和增强物体检测的去雾进行了深入的讨论,并介绍了联合训练部分的细节和分析。我们还对AOD-Net的架构进行了更详细和全面的分析(例如第III-D节)。此外,我们还包括更广泛的比较结果。

在本节中,解释了提出的AOD-Net。 我们首先介绍了转换后的大气散射模型,在此基础上设计了AOD-Net。 然后详细描述AOD-Net的体系结构。

A 物理模型和转换公式

大气光散射模型已经是雾霾图像生成的经典描述模型[19], [21], [22],

其中I(x)是雾霾图像,J(x)是场景辐射(即待恢复的清晰图像),这里有两个关键的参数:A代表大气光值,t(x)代表传输矩阵:

这里bita是大气光的散射系数,d(x)是物体和相机之间的距离,我们可以为清晰图像重写 模型:

现存的诸如[27],[3]之类的工作遵循相同的三步程序:

1)使用复杂的深模型从模糊图像I(x)估计传输矩阵t(x);

2)使用一些经验方法估计A;

3)通过(3)估计清洁图像J(x)。

这样的过程导致次优解决方案,其不直接最小化图像重建误差。当将它们组合在一起以计算(3)时,t(x)和A的单独估计将导致累积或甚至放大的误差。

我们的核心思想是将两个参数t(x)和A统一为一个公式,即(4)中的K(x),并直接最小化像素域重建误差。为此,将(3)中的公式重新表示为下面的转换公式:

提出的aod-net包含两个模块:

(a)k-estimation模块:从输入图像I(x)估计k(x);

(b)清晰图像生成模型:k(x)再去估计J(x)

创建合成数据集:NYU2深度数据集,大气光值[0.6,1.0],bita {0.4,0.6,0.8,1.0,1.2,1.4,1.6},取出27256个图像做训练集,3170个做测试集A,Middlebury立体数据集中取出800张full-size合成图像作为测试集B,此外,在自然雾霾图像上也评估了模型的泛化能力。

在训练过程中,使用高斯随机变量初始化权重。 我们使用ReLU神经元,因为我们发现它比[3]中提出的BReLU神经元在我们的特定环境中更有效。 动量和衰减参数分别设置为0.9和0.0001。 我们使用8个图像(480×640)的批量大小,学习率为0.001。 我们采用简单的均方误差(MSE)损失函数,并且很高兴地发现它不仅提升了PSNR,还提升了SSIM以及视觉质量。AOD-Net模型需要大约10个训练时期才能收敛,并且通常在10个时期之后表现得足够好。 在本文中,我们已经训练了40个时期的模型。 还发现将范数约束在[-0.1,0.1]内对clip the gradient (防止梯度爆炸)很有帮助。 该技术在稳定复发网络训练方面很受欢迎[25]。

对比方法:

在之前的实验中,由于在真实模糊图像上进行测试时没有无雾霾的真实性,因此报告了很少有关于恢复质量的定量结果。 我们合成的模糊图像伴随着地面实况图像,使我们能够根据PSNR和SSIM比较这些去噪结果。

表I和III-B分别显示了测试集A和B上的平均PSNR和SSIM结果。 由于AOD-Net在MSE损失下从端到端进行了优化,因此看到其PSNR性能高于其他方法并不令人惊讶。 更有吸引力的是观察到AOD-Net比所有竞争对手获得更大的SSIM优势,尽管SSIM并未直接被称为优化标准。 由于SSIM的测量超出了像素方面的误差,并且众所周知,它更忠实地反映了人类的感知,因此我们对AOD-Net的哪一部分实现了这种持续改进感到好奇。

我们进行以下调查:TestSet B中的每个图像被分解为平均图像和残差图像的总和。前者由具有相同平均值的所有像素位置构成(图像上的平均3通道矢量)。很容易证明两个图像之间的MSE等于它们在两个残留图像之间添加的平均图像之间的MSE。平均图像大致对应于全局照明并且与A相关,而残差更多地涉及局部结构变化和对比等。我们观察到AOD-Net产生类似的残余MSE(在TestSet B上平均)到一些竞争对手DehazeNet和CAP等方法。然而,AOD-Net结果的平均部分的MSE显着低于DehazeNet和CAP,如表III所示。由此暗示,由于我们在端到端重建损失下的联合参数估计方案,AOD-Net可能更能够正确地恢复A(全局照明)。由于人眼对全局照明的大变化肯定比对任何局部失真更敏感,因此难怪为什么AOD-Net的视觉效果也明显更好,而其他一些结果通常看起来不切实际。

上述优点也体现在计算SSIM [39]的照明(1)项中,并部分解释了我们强大的SSIM结果。 SSIM收益的另一个主要来源似乎来自对比(c)项。例如,我们随机选择五个图像进行测试,TestSetB上AOD-Net结果的对比值平均值为0.9989,显着高于ATM(0.7281),BCCR(0.9574),FVR(0.9630),NLD(0.9250),DCP (0.9457),MSCNN(0.9697),DehazeNet(0.9076)和CAP(0.9760)。

a)合成图像:图5显示了来自TestSet A的合成图像的去雾结果。我们观察到AOD-Net结果通常具有更清晰的轮廓和更丰富的颜色,并且在视觉上更忠实于地面实况。

b)具有挑战性的自然图像:虽然通过室内图像合成训练,但ADO-Net可以很好地泛化为室外图像。我们根据一些自然图像示例的最新方法对其进行评估,这些示例比[9],[8],[3]的作者发现的一般室外图像更具挑战性。挑战在于高度杂乱的物体,精细纹理或照明变化的主导地位。如图6所示,FVR遭受过度增强的视觉伪影。 DCP,BCCR,ATM,NLD和MSCNN在一个或多个图像上产生不切实际的色调,例如第二行上的DCP,BCCR和ATM结果(注意天空颜色),或第四行上的BCCR,NLD和MSCNN结果(注意石头颜色)。 CAP,DehazeNet和AOD-Net拥有最具竞争力的视觉效果,具有合理的细节。然而,仔细观察,我们仍然观察到CAP有时会模糊图像纹理,而DehazeNet会使某些区域变暗。 AOD-Net恢复更丰富和更饱和的颜色(在第三和第四行结果之间进行比较),同时抑制大多数伪像。

c)白色风景自然图像:白色场景或物体一直是去除雾霾的主要障碍。许多有效的先验如[9]在白色物体上失效,因为对于与大气光相似颜色的物体,透射值接近于零。 DehazeNet [3]和MSCNN [27]都依赖于精心挑选的过滤操作进行后处理,这提高了它们对白色物体的稳健性,但不可避免地牺牲了更多的视觉细节。虽然AOD-Net没有明确考虑处理白色场景,但我们的端到端优化方案似乎在这里提供了更强的鲁棒性。图7显示了白色场景的两个模糊图像以及通过各种方法的去雾结果。很容易注意到DCP结果的无法忍受的瑕疵,特别是在第一行的天空区域。这个问题得到缓解,但仍然存在CAP,DehazeNet和MSCNN结果,而AOD-Net几乎没有人工制品。此外,CAP似乎模糊了白色物体的纹理细节,而MSCNN创建了过度增强的相反效果:请参阅猫头部区域进行比较。 AOD-Net设法消除雾霾,而不会引入假色调或扭曲的物体轮廓。

d)对无雾图像的小影响:虽然经过模糊的图像训练,AOD-Net被证实具有非常理想的特性,如果它没有雾度,它对输入图像几乎没有负面影响。这赞同我们的K估计模块的稳健性和有效性。图8显示了来自Colorlines的两个具有挑战性的清晰图像的结果[8]。

e)图像反光晕:我们在另一个图像增强任务上尝试AOD-Net,称为图像反光晕,无需重新训练。光晕是光线超出适当边界的扩散,在照片的明亮区域形成不希望的雾化效果。与去雾相关但遵循不同的物理模型,AOD-Net的反光晕结果也是不错的:参见图9的一些例子。

在本节中,我们专门分析了K估计模块的层间级联的有用性,它结合了不同大小的滤波器的多尺度特征。 我们认为,尽管经验性发现,当前的连接方式通过始终将几个连续的较低层连续馈入下一层,促进了从低层到高层的平滑特征转换。 为了进行比较,我们设计了一个基线:“conv1→conv2→conv3→conv4→conv5(K)”,它不涉及层间连接。 对于TestSet A,平均PSNR为17.0517 dB,SSIM为0.7688。 对于TestSet B,平均PSNR为22.3359 dB,SSIM为0.9032。 这些结果通常不如AOD-Net(除了TestSet B上的PSNR略高),特别是两个SSIM值都遭受显着下降。

AOD-Net的轻质结构导致更快的除雾。 我们在同一台机器(Intel(R)Core(TM)i7-6700 CPU@3.40GHz和16GB内存)上为所有型号选择了来自TestSet A的50个图像,没有GPU加速。 所有型号的每图像平均运行时间如表IV所示。 尽管其他Matlab实现较慢,但比较DehazeNet(Pycaffe版本)和我们的[11]是公平的。 结果表明AOD-Net具有很高的效率,每张图像仅占DehazeNet的1/10

高级计算机视觉任务,如物体检测和识别,涉及视觉语义,并受到了极大的关注[26],[43]。然而,这些算法的性能可能在很大程度上受到实际应用中各种降级的危害。传统方法在进入目标任务之前采用单独的图像恢复步骤。最近,[40],[17]验证了恢复和识别步骤的联合优化将显着提高传统两阶段方法的性能。然而,之前的方法[44],[5],[4]主要仅针对图像分类任务,研究了常见降级(如噪声,模糊和低分辨率)的影响和补救措施。据我们所知,没有类似的工作来定量研究雾霾的存在如何影响高级视觉任务,以及如何使用联合优化方法来减轻其影响。我们研究了雾霾存在下的物体检测问题,作为高级视觉任务如何与除雾相互作用的一个例子。我们选择faster R-CNN模型[26]作为强基线4,并测试合成和自然有雾图像。然后,我们将AOD-Net模型与更快的R-CNN模型连接起来,作为统一管道进行联合优化。从我们的实验得出的一般结论是:随着雾度变重,物体检测变得不太可靠。在所有雾霾条件下(轻度,中度或重度),我们的联合调谐模型不断改进检测,超越maive fster R-CNN和非联合的方法。

A.具有合成雾度的Pascal-VOC 2007的定量结果我们从Pascal VOC 2007数据集(称为Groundtruth)创建了三个合成集[6]:

通过[18]中描述的方法预测深度图。每组被分成非重叠训练集和测试集。首先,我们比较五种方案而不进行任何网络微调:

(1)naive fater - RCNN:使用清晰的Pascal-VOC 2007上预先训练的模型直接输入模糊图像;

(2)DehazeNet +faster R-CNN:首先使用DehazeNet进行除雾,然后使用faster R-CNN;

(3)MSCNN +faster R-CNN:首先使用MSCNN进行除雾,然后使用faster R-CNN;

(4)DCP +faster  R-CNN:首先使用DCP进行除雾,然后使用faster R-CNN;

(5)AOD-网络+faster  R-CNN:AOD-Net与faster  R-CNN连接,没有任何联合调整。

图10显示了对Web源自然模糊图像的对象检测结果的视觉比较。比较了六种方法: (1) naive Faster-RCNN; (2) DehazeNet + Faster R- CNN ; (3) MSCNN + Faster R-CNN ; (4) AOD-Net + Faster R- CNN; (5) Fine-tuned Faster R-CNN. (6) JAOD-Faster R-CNN.。我们观察到雾霾可能导致错误检测,不准确的本地化以及对于fster R-CNN的不自信的类别识别。虽然AOD-Net + Faster R-CNN已经显示出优于原始Faster-RCNN的明显优势,但JAOD-Faster R-CNN结果的性能进一步显着提升,显着超越所有其他替代方案。请注意,AOD-Net + Faster R-CNN从联合优化中获益双重:AOD-Net本身共同估算所有参数,整个流水线共同调整低水平(去雾)和高水平(检测)和认可)端到端的任务。端到端的管道调整是由AOD-Net独特实现的,AOD-Net是迄今为止唯一的一体化除雾模型。

虽然JAOD-Faster R-CNN可以说是上面所示的最佳表现者,但自然会出现一个问题:它是否是AOD-Faster R-CNN使用的参数比(Retrained)faster R-CNN更多的结果?在本节中,我们展示了添加额外的图层和参数,而没有针对去雾的任务特定设计,并不一定能提高雾度中对象检测的性能。我们设计了一个名为Auto-Faster R-CNN的新基线,用简单的卷积自动编码器取代了JAOD-Faster R-CNN中的AOD-Net部分。自动编码器与AOD-Net具有相同数量的参数,由五个卷积层组成,其结构类似于K估计模块。我们使用与AOD-Net相同的训练协议和数据集预先训练用于除雾任务的自动编码器,并将其与更快的R-CNN连接以进行端到端调整。如表VI所示,自动更快的R-CNN的性能与AOD-Faster R-CNN并不相同,并且表现得比微调更快的R-CNN更差。回想一下[26]证实直接向更快的R-CNN添加额外的层并不一定能改善一般干净图像中物体检测的性能。我们的结论是它在朦胧案件中的一贯对应。此外,应该注意的是,尽管JAOD-Faster R-CNN在更快的R-CNN之前添加了AOD-Net,但由于AOD-Net的轻量化设计,复杂性并未增加太多。对于(Retrained)faster R-CNN,每个图像的平均运行时间为0.166秒,对于JAOD-Faster R-CNN,使用NVIDIA GeForce GTX TITAN X GPU为0.192秒。

本文提出了AOD-Net,这是一种一体化的管道,可以通过端到端的CNN直接重建无雾图像。我们使用客观(PSNR,SSIM)和主观标准,在合成和自然雾度图像上比较AOD-Net与各种最先进的方法。广泛的实验结果证实了AOD-Net的优越性,稳健性和效率。此外,我们还提出了第一个关于AOD-Net如何通过联合管道优化提高自然朦胧图像上的物体检测和识别性能的研究。可以观察到,我们共同调整的模型在雾度存在的情况下不断改进检测,超过了天真的更快的R-CNN和非关节方法。然而,如上所述,去雾技术与来自图像的深度估计高度相关,并且通过结合深度先验知识或精细的深度估计模块,存在改善AOD-Net的性能的空间。

1. 原码、反码和补码二进制有三种不同的表示形式:原码、反码和补码,计算机内部使用补码来表示。原码:就是其二进制表示(注意,有一位符号位)。00 00 00 11 -> 310 00 00 11 -> -3反码:正数的反码就是原码,负数的反码是符号位不变,其余位取反(对应正数按位取反)。00 00 00 11 -> 311 11 11 00 -> -3补码:正数的补码就

【实用办公工具】Beyond Compare 4终极指南:比对软件神器Beyond Compare的下载安装详细图文教程。Beyond Compare 4 以 毫秒级响应速度 和 全格式兼容性,成为开发、运维、设计领域的效率核心。其优势不仅在于精准定位差异,更在于重构协作流程——让冲突可视化、同步自动化、数据管理智能化。

本文介绍了功能强大的开源NIDS 和流量分析工具的应用。

组件  一个软件组件是一个具有特定的契约接口并且仅具有显式上下文(环境)依赖性的成分单元。一个软件组件可以独立部署,并且服从第3 方的组成。 上下文与容器上下文是所有组件的容器。而容器则是拥有组件,并且提供一系列允许进行组件操作的服务的系统。有时,这种操作在IDE (设计时)中进行,有时则在部署环境中运行,比如J2EE server 之中 (运行时)。&

Ubuntu系统上All-in-one部署OpenStack 虚拟机软件:VMware Workstaion12操作系统:Ubuntu14.041、修改

coredb 认为可以使用pg 干任何事情,自己基于rust 开发了不少pg 的扩展,当然也包含了不少

生命周期顺序Awake-OnEnable-Start-FixedUpdate-Update-FixedUpdate-OnGUI-OnDisable-OnDestroyUIImageImage & Raw ImageImageRaw Image图片源SpriteTexture主要功能常规交互;tiling、filling等。UV Rect,实现图片的偏移等;可以借助render textur

adjust the screen brightness

本文通过应用交付负载均衡产品的演变过程,分析了市场上产品从单一功能向All-in-One模式的演进及原因。

在 Linux 上以 All-in-One 模式安装 KubeSphereInstall KubeSphere in All-in-One mode on Linux背景KubeSphere 是在Kubernetes 之上构建的面向云原生应用的分布式操作系统,完全开源,支持多云与多集群管理,提供全栈的IT 自动化运维能力,简化公司的DevOps 工作流。... 作为全栈的多租户容器平台,KubeS

通过RDO快速构建一个X版本的OpenStack实验环境。

CRM(Customer Relationship Management)客户关系管理,是诞生于本世纪初的方法论和软件系统。时至今日,在市场竞争不断加剧、业务愈加灵活、消费者知情度愈高等诸多因素的共同影响下,企业信息化建设更加注重“以人为本”。在当代企业运营管理当中,CRM无疑称得上是关乎企

Sysstat概述、 Sysstat是一个非常方便的工具,它带有众多的系统资源监控工具,用于监控系统的性能和使用情况。我们在日常使用的工具中有相当一部分是来自sysstat工具包的。同时,它还提供了一种使用cron表达式来制定性能和活动数据的收集计划。包含在sysstat包中的工具iostat: 输出CPU的统计信息和所有I/O设备的输入输出(I/O)统计信息。mpstat: 关于CPU的详细

十几年来,经过中国数十万家企业成功应用的检验,用友U8已经成为中国ERP普及的旗舰产品,为中国企业信息化进程做出了重大贡献! 后金融危机时代,世界经济逐渐趋稳、复苏,内外部环境将更为复杂多变,这给中国中小企业带来前所未有的挑战,也带来了更多的机遇。这种因素也推动了中国企业信息化进程——中小企业已经进入全面信息化时代! 企业需求无疑是用友U8冲锋的

在当前中国和世界经济形势下,传统的低成本、规模生产的制造业增长模式已愈来愈难以为继。而产品研发和制造的全球化,无疑又对产品创新能力提出了更高的要求。这就要求中国制造企业尤其是中小制造企业必须加快产业结构优化和转型升级,大力提升产品研发创新能力,从规模生产向产品创新和质量提升转型,从价格优势和产业链低端向产品优势和产业链中高端升级。 PLM 不仅仅是一种技术,更代表着一整套商业流

除了正确进行接地设计、安装,还要正确进行各种不同信号的接地处理。控制系统中,大致有以下几种地线: (1)数字地:也叫逻辑地,是各种开关量(数字量)信号的零电位。 (2)模拟地:是各种模拟量信号的零电位。 (3)信号地:通常为传感器的地。 (4)交流地:交流供电电源的地线,这种地通常是产生噪声的地。 (5)直流地:直流供电电源的地。 (6)屏蔽地:也叫机壳地,为防止静电感应和磁场感应而设。 以上这些

在一个数字便利与极简风格相结合的世界里,电子纸显示器提供了一种奇妙的方式来保存你的笔记、提醒和待办事项列表,而不用像传统的便利贴那样混乱。想象一下,有一个可重复使用的,低功耗的便利贴,通过Wi-Fi更新! 这个项目将Waveshare 2.9英寸电子纸显示器和Seeed Studio XIAO ES ...

(Interface Definition Language)文件转换为特定编程语言(如 C++、C# 等)的代码,以便在 Fast DDS 中实现数据的序列化、反序列化及分布式通信。生成的代码可直接集成到 Fast DDS 应用中,简化数据类型的通信实现,无需手动编写序列化逻辑。生成 C# 语言的代码文件,适用于 .NET 环境下的 Fast DDS 开发。,可直接编译运行简单的发布 - 订阅示例。(1)基础用法(生成 C++ 代码)除核心代码外,还会生成。(4)生成 C# 代码。

大数据的关键技术之——大数据采集本文目录:一、写在前面的话二、大数据采集概念三、大数据采集步骤3.1、大数据采集步骤(总体角度)3.2、大数据采集步骤(数据集角度)3.3、大数据采集步骤(数据集角度)四、数据源与数据类型的关系4.1、大数据体系数据4.2、数据源与数据类型的关系五、大数据体系中数据类型5.1、结构化数据5.2、半结构化数据5.3、非结构化数据六、大数据采集技术6.1、web数据采集

THE END
0.深度学习在偏振图像融合领域的研究进展与现状人工智能本文在回顾基于多尺度变换、稀疏表示和伪彩色等传统融合方法基础上,重点介绍基于深度学习的偏振图像融合方法研究现状。首先阐述基于卷积神经网络和生成对抗网络的偏振图像融合研究进展,然后给出在目标检测、语义分割、图像去雾和三维重建领域的相关应用,同时整理公开的高质量偏振图像数据集,最后对未来研究进行展望。 jvzquC41yy}/gujehctt0lto1tkoixsi|joogwl146=32<80jvsm
1.常用的20个计算机视觉开源数据集总结本文汇总了一系列常用的计算机视觉数据集,涵盖了从COVID-19影像学到图像分类、目标检测等多个领域,如ImageNet、CIFAR-10、MSCOCO等,适用于各类视觉任务的研究与开发。 计算机视觉是人工智能的一个领域,它训练计算机解释和理解视觉世界。利用来自相机和视频的字图像以及深度学习模型,机器可以准确地识别和分类物体,然后对它们“看到的”jvzquC41dnuh0lxfp0tfv8iggrnvd8ftvkimg8igvcomu86492<87<>
2.图像去雾数据集总汇近年来,图像去雾已成为计算成像的重要课题。然而,由于缺乏真实图像,去雾方法的比较既不直接也不客观。为了克服这个问题,作者引入了 I-HAZE,这是一个新的数据集,其中包含 35 个有雾图像对和相应的无雾(地面实况)室内图像。与大多数现有的去雾数据库不同,雾霾图像是使用专业雾霾机产生的真实雾霾生成的。为了简化颜jvzquC41dnuh0lxfp0tfv8r2a88:3B:571gsvrhng1jfvjnnu175:=86676
3.张林8. 提出并建立了融合前视自然特征、环视语义特征、惯导数据的紧耦合SLAM系统(ACM MM 2020、IEEE T-CSVT 2022); 9. 建立了雾霾图像与对应的清晰图像均来自真实场景的去雾霾算法度量图像数据集,提出了基于能见度与真实度两个维度的去雾霾算法性能评测准则(IEEE T-IP 2020); jvzquC41eu4uqwllk0kew7hp1ktgq86283539;;0jvs
4.中猿创新最新图像分类数据集自然语言处理数据集图像分割数据集目标检测数据集 VIP 医学影像数据集数据集 基于YOLO格式的脑部疾病(癫痫、脑中风)目标检测数据集 该数据集用于脑部疾病(癫痫、脑中风)目标检测任务。 项目信息 编号:Datase 9 月前0021398 VIP 目标检测数据集 jvzquC41yy}/8:ne0eun1
5.最新综述!万字长文彻底搞懂单目3d车道线检测jvzquC41yy}/7:hvq0ipo8ftvkimg8<:95:60qyon
6.多模态研究团队荣获2023年度人工智能顶会CVPR和ICRA九项挑战赛冠军其中,赛道一为“雾霾目标检测”,任务背景基于在雾、霾等恶劣天气条件的影响下图像出现的非线性噪声、模糊、对比度降低和颜色变暗等问题,旨在评估和提高物体检测算法在雾霾环境下拍摄图像上的鲁棒性。 团队针对比赛官方给定的小样本数据集,为了在雾霾条件下获得更加鲁棒的检测效果,同时采用Mosiac、RandomAffine、MixUp、jvzq<84pgnymky3wuvi/gmz0ep532;8129741l78;3:b89=69:5qcpj0jvs
7.2019DENSEHAZE:ABENCHMARKFORIMAGEDEHAZINGWITHDENSE尽管在过去的几年中,人们对去雾方法的兴趣显著增加,但由于缺乏真正的模糊和相应的无雾参考图像对,去雾方法的验证仍然在很大程度上不令人满意。为了解决这一限制,我们引入了密集的雾霾Dense-Haze——一个新的去雾霾数据集。密雾以密集、均匀的朦胧场景为特征,包含33对真实的朦胧和相应的无雾霾图像。通过引入由专业jvzquC41dnuh0lxfp0tfv8jqwgiq;5321gsvrhng1jfvjnnu17399825::
8.JetsonTX2平台上的无人驾驶系统研究与实现(2)自动学习提取特征:从大量的训练样本图像中自动学习提取特征,神经网络一度被给予厚望。但其发展出现了瓶颈:训练容易出现拟合、算法复杂、训练速度慢。近年来,伴随着GPU和深度学习的快速发展,弥补了传统神经网络的不足。深度学习的本质是通过多层非线性变换,从大规模数据集中自动学习特征。深层的结构使其具有极强的表jvzquC41yy}/e|zuv0kew7hp1l}d1rshq171:;434;>/j}r
9.质谱技术上样量新闻仪器信息网质谱技术上样量专题为您提供2025年最新质谱技术上样量价格报价、厂家品牌的相关信息, 包括质谱技术上样量参数、型号等,不管是国产,还是进口品牌的质谱技术上样量您都可以在这里找到。 除此之外,仪器信息网还免费为您整合质谱技术上样量相关的耗材配件、试剂标物,还有质谱技术上样量相关的最新资讯、资料,以jvzquC41yy}/kwxvtwsfp}3eqo4dp8jwvo05A::;1tfy|3jvor
10.面向资源受限物联网设备的联邦学习研究综述学习分布式数据集,同时通过不暴露数据来保护隐私是一个普遍的目标。1982年,开发了一种用于加密数据[1]的加密机制。[2] -[6]的作品是在维护隐私的同时从本地数据中发现知识的早期例子。为此,FL的引入通过只在设备上存储客户端数据来维护隐私,通过在客户端设备上执行计算来生成预测模型,消除了对单个服务器的依赖,jvzquC41dnuh0wtyeqjft7sgv1t0;m;58cgef95c68>f: