全球快看:OctConv:八度卷积复现
摘要:不同于传统的卷积,八度卷积主要针对图像的高频信号与低频信号。
本文分享自华为云社区《OctConv:八度卷积复现》,作者:李长安 。
论文解读
八度卷积于2019年在论文《Drop an Octave: Reducing Spatial Redundancy in Convolutional Neural Networks with Octave Convol》提出,在当时引起了不小的反响。八度卷积对传统的convolution进行改进,以降低空间冗余。其中“Drop an Octave”指降低八个音阶,代表频率减半。
不同于传统的卷积,八度卷积主要针对图像的高频信号与低频信号。首先,我们回忆一下数字图像处理中的高频信号与低频信号的概念。图像中的低频信号和高频信号也叫做低频分量和高频分量。图像中的高频分量,指的是图像强度(亮度/灰度)变化剧烈的像素点,例如边缘(轮廓)、图像的细节处、噪声(即噪点)(该点之所以称为噪点,是因为它与周边像素点灰度值有明显差别,也就是图像强度有剧烈的变化,所以噪声是高频部分)。图像中的低频分量,指的是图像强度(亮度/灰度)变换平缓的像素点,例如大片色块的地方。例如当我们在读书的时候,我们会聚焦于书上的文字而不是书纸本身,这里的文字就是高频分量,白纸即为低频分量。
(资料图)
下图是论文中给出的例子,左图是原图,中图表示低频信号,右图表示高频信号。
在论文中,作者提出较高的频率通常用精细的细节编码,较低的频率通常用全局结构编码。所以作者认为那么既然图像分为高低频,那么卷积产生的特征图自然也存在高低频之分。在图像处理中,模型通过高频特征图去学习图像包含的信息,因为它包含了轮廓、边缘等的信息,有助于进行显著性检测。相反,低频特征图包含的信息较少。如果我们用相同的处理方法来处理高频特征图和低频特征图,显然,前者的效益是远大于后者的。这就是特征图的冗余信息:包含信息较少的低频部分。所以在论文中作者提出了一种分而治之的方法,称之为Octave Feature Representation,对高频特征图与低频特征图分离开来进行处理。如下图所示,作者将低频特征图的分辨率降为1/2,这不仅有助于减少冗余数据,还有利于得到全局信息。
根据尺度空间理念,我们可以知道特征具有尺度不变性和旋转不变性。
- 尺度不变性:人类在识别一个物体时,不管这个物体或远或近,都能对它进行正确的辨认,这就是所谓的尺度不变性。
- 旋转不变性:当这个物体发生旋转时,我们照样可以正确地辨认它,这就是所谓的旋转不变性。当用一个机器视觉系统分析未知场景时,计算机没有办法预先知识图像中物体尺度,因此,我们需要同时考虑图像在多尺度下的描述,获知感兴趣物体的最佳尺度。例如,高分辨率的图是人近距离的观察得到的,低分辨率的图是远距离观察得到的。
2、复现详情
2.1 Oct-Conv复现
为了同时做到同一频率内的更新和不同频率之间的交流,卷积核分成四部分:
- 高频到高频的卷积核
- 高频到低频的卷积核
- 低频到高频的卷积核
- 低频到低频的卷积核
下图直观地展示了八度卷积的卷积核,可以看出四个部分共同组成了大小为 k*k 的卷积核。其中,in和out分别表示输入和输出特征图的相关属性,在这篇文章中,输入的低频占比、通道数量都和输出的一致。
在了解了卷积核之后,下面介绍输入如何进行八度卷积操作得到输出结果。如下图所示,低频和高频的输入经过八度卷积操作得到了低频和高频的输出。红色表示高频,蓝色表示低频。绿色的箭头表示同一频率内的更新,红色的箭头表示不同频率之间的交流。
H和W分别表示特征图的长宽,可以看出低频特征图的长宽都是高频特征图的一半。因为分辨率不同,所以不同频率之间交流之前需要进行分辨率的调整:高频到低频需要进行池化(降采样)操作;低频到高频需要进行上采样操作。
import paddleimport paddle.nn as nnimport mathclass OctaveConv(nn.Layer): def __init__(self, in_channels, out_channels, kernel_size, alpha_in=0.5, alpha_out=0.5, stride=1, padding=0, dilation=1, groups=1, bias=False): super(OctaveConv, self).__init__() self.downsample = nn.AvgPool2D(kernel_size=(2, 2), stride=2) self.upsample = nn.Upsample(scale_factor=2, mode="nearest") assert stride == 1 or stride == 2, "Stride should be 1 or 2." self.stride = stride self.is_dw = groups == in_channels assert 0 <= alpha_in <= 1 and 0 <= alpha_out <= 1, "Alphas should be in the interval from 0 to 1." self.alpha_in, self.alpha_out = alpha_in, alpha_out self.conv_l2l = None if alpha_in == 0 or alpha_out == 0 else \ nn.Conv2D(int(alpha_in * in_channels), int(alpha_out * out_channels), kernel_size, 1, padding, dilation, math.ceil(alpha_in * groups)) self.conv_l2h = None if alpha_in == 0 or alpha_out == 1 or self.is_dw else \ nn.Conv2D(int(alpha_in * in_channels), out_channels - int(alpha_out * out_channels), kernel_size, 1, padding, dilation, groups) self.conv_h2l = None if alpha_in == 1 or alpha_out == 0 or self.is_dw else \ nn.Conv2D(in_channels - int(alpha_in * in_channels), int(alpha_out * out_channels), kernel_size, 1, padding, dilation, groups) self.conv_h2h = None if alpha_in == 1 or alpha_out == 1 else \ nn.Conv2D(in_channels - int(alpha_in * in_channels), out_channels - int(alpha_out * out_channels), kernel_size, 1, padding, dilation, math.ceil(groups - alpha_in * groups)) def forward(self, x): x_h, x_l = x if type(x) is tuple else (x, None) x_h = self.downsample(x_h) if self.stride == 2 else x_h x_h2h = self.conv_h2h(x_h) x_h2l = self.conv_h2l(self.downsample(x_h)) if self.alpha_out > 0 and not self.is_dw else None if x_l is not None: x_l2l = self.downsample(x_l) if self.stride == 2 else x_l x_l2l = self.conv_l2l(x_l2l) if self.alpha_out > 0 else None if self.is_dw: return x_h2h, x_l2l else: x_l2h = self.conv_l2h(x_l) x_l2h = self.upsample(x_l2h) if self.stride == 1 else x_l2h x_h = x_l2h + x_h2h x_l = x_h2l + x_l2l if x_h2l is not None and x_l2l is not None else None return x_h, x_l else: return x_h2h, x_h2lclass Conv_BN(nn.Layer): def __init__(self, in_channels, out_channels, kernel_size, alpha_in=0.5, alpha_out=0.5, stride=1, padding=0, dilation=1, groups=1, bias=False, norm_layer=nn.BatchNorm2D): super(Conv_BN, self).__init__() self.conv = OctaveConv(in_channels, out_channels, kernel_size, alpha_in, alpha_out, stride, padding, dilation, groups, bias) self.bn_h = None if alpha_out == 1 else norm_layer(int(out_channels * (1 - alpha_out))) self.bn_l = None if alpha_out == 0 else norm_layer(int(out_channels * alpha_out)) def forward(self, x): x_h, x_l = self.conv(x) x_h = self.bn_h(x_h) x_l = self.bn_l(x_l) if x_l is not None else None return x_h, x_lclass Conv_BN_ACT(nn.Layer): def __init__(self, in_channels=3, out_channels=32, kernel_size=3, alpha_in=0.5, alpha_out=0.5, stride=1, padding=0, dilation=1, groups=1, bias=False, norm_layer=nn.BatchNorm2D, activation_layer=nn.ReLU): super(Conv_BN_ACT, self).__init__() self.conv = OctaveConv(in_channels, out_channels, kernel_size, alpha_in, alpha_out, stride, padding, dilation, groups, bias) self.bn_h = None if alpha_out == 1 else norm_layer(int(out_channels * (1 - alpha_out))) self.bn_l = None if alpha_out == 0 else norm_layer(int(out_channels * alpha_out)) self.act = activation_layer() def forward(self, x): x_h, x_l = self.conv(x) x_h = self.act(self.bn_h(x_h)) x_l = self.act(self.bn_l(x_l)) if x_l is not None else None return x_h, x_l
2.2 Oct-Mobilnetv1复现
Oct-Mobilnetv1的复现即将Mobilnetv1中的原始的Conv2D替换为Oct-Conv,其他均保持不变,在后面打印了Oct-Mobilnetv1的网络结构以及参数量,方便大家查看。
# Oct-Mobilnetv1import paddle.nn as nn__all__ = ["oct_mobilenet"]def conv_bn(inp, oup, stride): return nn.Sequential( nn.Conv2D(inp, oup, 3, stride, 1), nn.BatchNorm2D(oup), nn.ReLU() )def conv_dw(inp, oup, stride, alpha_in=0.5, alpha_out=0.5): return nn.Sequential( Conv_BN_ACT(inp, inp, kernel_size=3, stride=stride, padding=1, groups=inp, \ alpha_in=alpha_in, alpha_out=alpha_in if alpha_out != alpha_in else alpha_out), Conv_BN_ACT(inp, oup, kernel_size=1, alpha_in=alpha_in, alpha_out=alpha_out) )class OctMobileNet(nn.Layer): def __init__(self, num_classes=1000): super(OctMobileNet, self).__init__() self.features = nn.Sequential( conv_bn( 3, 32, 2), conv_dw( 32, 64, 1, 0, 0.5), conv_dw( 64, 128, 2), conv_dw(128, 128, 1), conv_dw(128, 256, 2), conv_dw(256, 256, 1), conv_dw(256, 512, 2), conv_dw(512, 512, 1), conv_dw(512, 512, 1), conv_dw(512, 512, 1), conv_dw(512, 512, 1), conv_dw(512, 512, 1, 0.5, 0), conv_dw(512, 1024, 2, 0, 0), conv_dw(1024, 1024, 1, 0, 0), ) self.avgpool = nn.AdaptiveAvgPool2D((1, 1)) self.fc = nn.Linear(1024, num_classes) def forward(self, x): x_h, x_l = self.features(x) x = self.avgpool(x_h) x = x.reshape([-1, 1024]) x = self.fc(x) return xdef oct_mobilenet(**kwargs): """ Constructs a Octave MobileNet V1 model """ return OctMobileNet(**kwargs)
2.3 OctResNet的复现
Oct-ResNet的复现即将ResNet中的原始的Conv2D替换为Oct-Conv,其他均保持不变,在后面打印了Oct-ResNet的网络结构以及参数量,方便大家查看。
import paddle.nn as nn__all__ = ["OctResNet", "oct_resnet50", "oct_resnet101", "oct_resnet152", "oct_resnet200"]class Bottleneck(nn.Layer): expansion = 4 def __init__(self, inplanes, planes, stride=1, downsample=None, groups=1, base_width=64, alpha_in=0.5, alpha_out=0.5, norm_layer=None, output=False): super(Bottleneck, self).__init__() if norm_layer is None: norm_layer = nn.BatchNorm2D width = int(planes * (base_width / 64.)) * groups # Both self.conv2 and self.downsample layers downsample the input when stride != 1 self.conv1 = Conv_BN_ACT(inplanes, width, kernel_size=1, alpha_in=alpha_in, alpha_out=alpha_out, norm_layer=norm_layer) self.conv2 = Conv_BN_ACT(width, width, kernel_size=3, stride=stride, padding=1, groups=groups, norm_layer=norm_layer, alpha_in=0 if output else 0.5, alpha_out=0 if output else 0.5) self.conv3 = Conv_BN(width, planes * self.expansion, kernel_size=1, norm_layer=norm_layer, alpha_in=0 if output else 0.5, alpha_out=0 if output else 0.5) self.relu = nn.ReLU() self.downsample = downsample self.stride = stride def forward(self, x): identity_h = x[0] if type(x) is tuple else x identity_l = x[1] if type(x) is tuple else None x_h, x_l = self.conv1(x) x_h, x_l = self.conv2((x_h, x_l)) x_h, x_l = self.conv3((x_h, x_l)) if self.downsample is not None: identity_h, identity_l = self.downsample(x) x_h += identity_h x_l = x_l + identity_l if identity_l is not None else None x_h = self.relu(x_h) x_l = self.relu(x_l) if x_l is not None else None return x_h, x_lclass OctResNet(nn.Layer): def __init__(self, block, layers, num_classes=1000, zero_init_residual=False, groups=1, width_per_group=64, norm_layer=None): super(OctResNet, self).__init__() if norm_layer is None: norm_layer = nn.BatchNorm2D self.inplanes = 64 self.groups = groups self.base_width = width_per_group self.conv1 = nn.Conv2D(3, self.inplanes, kernel_size=7, stride=2, padding=3, ) self.bn1 = norm_layer(self.inplanes) self.relu = nn.ReLU() self.maxpool = nn.MaxPool2D(kernel_size=3, stride=2, padding=1) self.layer1 = self._make_layer(block, 64, layers[0], norm_layer=norm_layer, alpha_in=0) self.layer2 = self._make_layer(block, 128, layers[1], stride=2, norm_layer=norm_layer) self.layer3 = self._make_layer(block, 256, layers[2], stride=2, norm_layer=norm_layer) self.layer4 = self._make_layer(block, 512, layers[3], stride=2, norm_layer=norm_layer, alpha_out=0, output=True) self.avgpool = nn.AdaptiveAvgPool2D((1, 1)) self.fc = nn.Linear(512 * block.expansion, num_classes) def _make_layer(self, block, planes, blocks, stride=1, alpha_in=0.5, alpha_out=0.5, norm_layer=None, output=False): if norm_layer is None: norm_layer = nn.BatchNorm2D downsample = None if stride != 1 or self.inplanes != planes * block.expansion: downsample = nn.Sequential( Conv_BN(self.inplanes, planes * block.expansion, kernel_size=1, stride=stride, alpha_in=alpha_in, alpha_out=alpha_out) ) layers = [] layers.append(block(self.inplanes, planes, stride, downsample, self.groups, self.base_width, alpha_in, alpha_out, norm_layer, output)) self.inplanes = planes * block.expansion for _ in range(1, blocks): layers.append(block(self.inplanes, planes, groups=self.groups, base_width=self.base_width, norm_layer=norm_layer, alpha_in=0 if output else 0.5, alpha_out=0 if output else 0.5, output=output)) return nn.Sequential(*layers) def forward(self, x): x = self.conv1(x) x = self.bn1(x) x = self.relu(x) x = self.maxpool(x) x_h, x_l = self.layer1(x) x_h, x_l = self.layer2((x_h,x_l)) x_h, x_l = self.layer3((x_h,x_l)) x_h, x_l = self.layer4((x_h,x_l)) x = self.avgpool(x_h) x = x.reshape([x.shape[0], -1]) x = self.fc(x) return xdef oct_resnet50(pretrained=False, **kwargs): """Constructs a Octave ResNet-50 model. Args: pretrained (bool): If True, returns a model pre-trained on ImageNet """ model = OctResNet(Bottleneck, [3, 4, 6, 3], **kwargs) return modeldef oct_resnet101(pretrained=False, **kwargs): """Constructs a Octave ResNet-101 model. Args: pretrained (bool): If True, returns a model pre-trained on ImageNet """ model = OctResNet(Bottleneck, [3, 4, 23, 3], **kwargs) return modeldef oct_resnet152(pretrained=False, **kwargs): """Constructs a Octave ResNet-152 model. Args: pretrained (bool): If True, returns a model pre-trained on ImageNet """ model = OctResNet(Bottleneck, [3, 8, 36, 3], **kwargs) return modeldef oct_resnet200(pretrained=False, **kwargs): """Constructs a Octave ResNet-200 model. Args: pretrained (bool): If True, returns a model pre-trained on ImageNet """ model = OctResNet(Bottleneck, [3, 24, 36, 3], **kwargs) return model
3、对比实验
实验数据:Cifar10
CIFAR-10 是由 Hinton 的学生 Alex Krizhevsky 和 Ilya Sutskever 整理的一个用于识别普适物体的小型数据集。一共包含 10 个类别的 RGB 彩色图 片:飞机( a叩lane )、汽车( automobile )、鸟类( bird )、猫( cat )、鹿( deer )、狗( dog )、蛙类( frog )、马( horse )、船( ship )和卡车( truck )。图片的尺寸为 32×32 ,数据集中一共有 50000 张训练圄片和 10000 张测试图片。 CIFAR-10 的图片样例如图所示。
3.1 Oct_MobilNetv1模型网络结构可视化
Octmobilnet_model = oct_mobilenet(num_classes=10)# inputs = paddle.randn((1, 2, 224, 224))# print(model(inputs))paddle.summary(Octmobilnet_model,(16,3,224,224))
3.2 Oct_MobilNetV1模型训练
import paddlefrom paddle.metric import Accuracyfrom paddle.vision.transforms import Compose, Normalize, Resize, Transpose, ToTensorcallback = paddle.callbacks.VisualDL(log_dir="visualdl_log_dir_octmobilenet")normalize = Normalize(mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5], data_format="HWC")transform = Compose([ToTensor(), Normalize(), Resize(size=(224,224))])cifar10_train = paddle.vision.datasets.Cifar10(mode="train", transform=transform)cifar10_test = paddle.vision.datasets.Cifar10(mode="test", transform=transform)# 构建训练集数据加载器train_loader = paddle.io.DataLoader(cifar10_train, batch_size=768, shuffle=True, drop_last=True)# 构建测试集数据加载器test_loader = paddle.io.DataLoader(cifar10_test, batch_size=768, shuffle=True, drop_last=True)Octmobilnet_model = paddle.Model(oct_mobilenet(num_classes=10))optim = paddle.optimizer.Adam(learning_rate=0.001, parameters=Octmobilnet_model.parameters())Octmobilnet_model.prepare( optim, paddle.nn.CrossEntropyLoss(), Accuracy() )Octmobilnet_model.fit(train_data=train_loader, eval_data=test_loader, epochs=12, callbacks=callback, verbose=1 )
3.3 MobileNetV1模型网络结构可视化
from paddle.vision.models import MobileNetV1mobile_model = MobileNetV1(num_classes=10)# inputs = paddle.randn((1, 2, 224, 224))# print(model(inputs))paddle.summary(mobile_model,(16,3,224,224))
3.4 MobileNetV1模型训练
import paddlefrom paddle.metric import Accuracyfrom paddle.vision.transforms import Compose, Normalize, Resize, Transpose, ToTensorcallback = paddle.callbacks.VisualDL(log_dir="visualdl_log_dir_mobilenet")normalize = Normalize(mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5], data_format="HWC")transform = Compose([ToTensor(), Normalize(), Resize(size=(224,224))])cifar10_train = paddle.vision.datasets.Cifar10(mode="train", transform=transform)cifar10_test = paddle.vision.datasets.Cifar10(mode="test", transform=transform)# 构建训练集数据加载器train_loader = paddle.io.DataLoader(cifar10_train, batch_size=768, shuffle=True, drop_last=True)# 构建测试集数据加载器test_loader = paddle.io.DataLoader(cifar10_test, batch_size=768, shuffle=True, drop_last=True)mobile_model = paddle.Model(MobileNetV1(num_classes=10))optim = paddle.optimizer.Adam(learning_rate=0.001, parameters=mobile_model.parameters())mobile_model.prepare( optim, paddle.nn.CrossEntropyLoss(), Accuracy() )mobile_model.fit(train_data=train_loader, eval_data=test_loader, epochs=12, callbacks=callback, verbose=1 )
3.5 Oct_ResNet50模型网络结构可视化
octresnet50_model = oct_resnet50(num_classes=10)paddle.summary(octresnet50_model,(16,3,224,224))
3.6 Oct_ResNet50模型训练
import paddlefrom paddle.metric import Accuracyfrom paddle.vision.transforms import Compose, Normalize, Resize, Transpose, ToTensorcallback = paddle.callbacks.VisualDL(log_dir="visualdl_log_dir_octresnet")normalize = Normalize(mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5], data_format="HWC")transform = Compose([ToTensor(), Normalize(), Resize(size=(224,224))])cifar10_train = paddle.vision.datasets.Cifar10(mode="train", transform=transform)cifar10_test = paddle.vision.datasets.Cifar10(mode="test", transform=transform)# 构建训练集数据加载器train_loader = paddle.io.DataLoader(cifar10_train, batch_size=256, shuffle=True, drop_last=True)# 构建测试集数据加载器test_loader = paddle.io.DataLoader(cifar10_test, batch_size=256, shuffle=True, drop_last=True)oct_resnet50 = paddle.Model(oct_resnet50(num_classes=10))optim = paddle.optimizer.Adam(learning_rate=0.001, parameters=oct_resnet50.parameters())oct_resnet50.prepare( optim, paddle.nn.CrossEntropyLoss(), Accuracy() )oct_resnet50.fit(train_data=train_loader, eval_data=test_loader, epochs=12, callbacks=callback, verbose=1 )
3.7 ResNet50模型网络结构可视化
import paddle# build modelresmodel = resnet50(num_classes=10)paddle.summary(resmodel,(16,3,224,224))
3.8 ResNet50模型训练
import paddlefrom paddle.metric import Accuracyfrom paddle.vision.transforms import Compose, Normalize, Resize, Transpose, ToTensorfrom paddle.vision.models import resnet50callback = paddle.callbacks.VisualDL(log_dir="visualdl_log_dir_resnet")normalize = Normalize(mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5], data_format="HWC")transform = Compose([ToTensor(), Normalize(), Resize(size=(224,224))])cifar10_train = paddle.vision.datasets.Cifar10(mode="train", transform=transform)cifar10_test = paddle.vision.datasets.Cifar10(mode="test", transform=transform)# 构建训练集数据加载器train_loader = paddle.io.DataLoader(cifar10_train, batch_size=256, shuffle=True, drop_last=True)# 构建测试集数据加载器test_loader = paddle.io.DataLoader(cifar10_test, batch_size=256, shuffle=True, drop_last=True)res_model = paddle.Model(resnet50(num_classes=10))optim = paddle.optimizer.Adam(learning_rate=0.001, parameters=res_model.parameters())res_model.prepare( optim, paddle.nn.CrossEntropyLoss(), Accuracy() )res_model.fit(train_data=train_loader, eval_data=test_loader, epochs=12, callbacks=callback, verbose=1 )
3.9 实验结果
本小节提供消融实验的结果以及可视化训练结果,共计包含四个实验,分别为octmobinetv1、mobinetv1、octresnet50以及resnet50在数据集Cifar10上的结果对比。
图1:Oct_MobileNetV1对比实验结果图
图2:Oct_ResNet50对比实验结果图
4、参考资料
d-li14/octconv.pytorch
神经网络学习之OctConv:八度卷积
Drop an Octave: Reducing Spatial Redundancy in Convolutional Neural Networks with Octave Convolution
5、总结
目前我们得到的结论与论文中的结论不符,论文提供的代码为MXnet框架,本复现参考了PyTorch版本的复现,不能确定是否为框架原因,或者一些训练设置原因,比如初始化方式或模型迭代次数不够,有待查证,大家感兴趣的也可以就这个问题与我在评论区进行交流。
点击关注,第一时间了解华为云新鲜技术~
标签:
推荐文章
- 全球快看:OctConv:八度卷积复现
- 【新视野】法拉电子:2022年年度业绩说明会定于2023年4月20日举行
- 全球观热点:要下雨了的生字组词拼音
- 环球快消息!最新消息播报:C罗6000万欧买新飞机 曝利雅得胜利已考虑解雇主帅加西亚批评C罗等球员是导火索
- 每日视点!激活大数据“富矿” 国土空间规划更“智慧”
- 每日快看:发布丨事关漳州人的房子!
- 看点:河北哪里的板栗最好吃?
- 天天通讯!和讯个股快报:2023年04月12日 中电兴发(002298)10:59分,股价快速拉升
- 最资讯丨内黄县生活垃圾焚烧发电项目首车生活垃圾进厂
- 世界动态:期铜收高,得益于美元走软
- 每日精选:16款护发精油测评不踩雷 头发毛躁救星
- 今日看点:斯基拉:米兰准备1500万-1600万欧向皇马报价迪亚斯,谈判正进行
- 天天精选!月饼有什么口味_月饼有什么馅的
- 天天视点!whoscored本周五大联赛最佳阵:梅西领衔,戈森斯、德里赫特在列
- 【世界播资讯】美股早盘 | 通胀报告前观望气氛浓厚,三大股指涨跌不一;热门中概股多数上扬,B站涨超5%,小鹏汽车涨近4%
- 当前信息:练笔文:巨兽之驯(vore)
- 全球新消息丨曹云金染白发寸头,曹云金在离婚事件中,做了哪两件事暴露了自己的
- 【环球新要闻】终极斗罗:蓝轩宇去天龙星捡装备,初代龙神等着他,天龙匍匐认祖
- 【新要闻】2023济南二模语文试卷及答案解析_更新中
- 环球今日报丨光韵达:若有与公司经营和战略契合的投资者,公司不排除引进战略投资计划
- 最新消息:欠款利息(关于欠款利息介绍)
- 天天观点:安徽八旬老人经营30年的动物园面临搬迁 小型动物园路在何方?
- 当前滚动:AG600型飞机中间型号合格审定委员会(TCB)会议召开
- 全球动态:重大突破,充电仅需18秒,新型锌离子电池正极材料问世!这些公司拥有丰富锌资源
- 焦点热议:第十三届北京国际电影节“天坛奖”入围影片混剪高燃来袭
- 【热闻】西德气膜丨枣矿储配煤基地联合试运转取得圆满成功
- 今日关注:我国首个自营超深水大气田“深海一号”具备远程遥控生产能力
- 环球快讯:浙江今年将实现电商快件不再二次包装比例达90%
- 今日聚焦!滴滴,沉寂的563天
- 天天视讯!不打价格战的蔚来,调整购车政策,6月前买车便宜3万?
- 热点在线丨用音乐,拥抱世界的缤纷(为梦想奔跑)
- 【全球聚看点】PowerColor发布GoGreenRadeonHD5450
- 【全球报资讯】好美!石川佳纯感谢中国粉丝给她的支持!日本女队长明天迎战陈梦
- 环球速看:给刚出生的宝宝送什么礼物好
- 观察:马蹄怎么洗快速去泥?
- 天天即时:济南恒隆广场“成绩单”透视
- 全球报道:融资丨「洞悉网络」完成数千万元A+轮融资
- 【独家】“泄密文件”爆料韩高层疑遭美监听,韩议员:如属实,美国外交犯规
- 环球快讯:房地产回暖,保利发展签约金额同比增超30%,市场底部机会到来?
- 【环球新视野】我国首条“西氢东送”管道纳入国家规划
- 天天即时看!浩洋股份(300833)4月10日主力资金净卖出4.95万元
- 每日播报!小米米家智能音频眼镜发布:支持通话降噪,售价799元
- 世界动态:本田这回被冷嘲热讽!冠道见了伤心欲绝,不到16万本田心服口服
- 世界今热点:《原神》白术阵容搭配攻略 白术怎么配队?
- 当前热议!2023年八大热门经典小说之首,锦书小说还要属悟空传最牛!
- 全球新消息丨成都到西安高铁时刻表查询系统_成都到西安高铁时刻表
- 每日速读!财税“春风”暖田间
- 速讯:QLED与UHD有何不同?全面解析
- 最新快讯!林青霞戴王后同款王冠被赞,我却被何超琼的女王同款祖母绿美到了
- 每日播报!ps调整图层大小按哪一个键_ps调整图层大小
- 【当前热闻】司机请求:被撞的兄弟,救我一下?南宁一男子醉驾撞车追尾
- 焦点速讯:杨鸣:感谢蒋导从球员到教练期间对我的帮助 感激不尽 实至名归
- 天天百事通!场独立型是什么知识点_场独立型
- 【焦点热闻】一季度横琴口岸出入境旅客同比增长74.8%
最新资讯
- 环球今头条!崔各庄2023年消费季启动!众多网红商家发放优惠券
- 当前热议!BLGvsOMG TOP5:Elk泽丽力挽狂澜以一敌三击溃OMG
- 世界快看:商朝是公元前多少年_商朝多少年
- 今日精选:人到35岁怎么办:做好这几点,可以缓解35岁职场焦虑
- 【世界报资讯】最高10万元 深圳罗湖区发放5000万购车补贴
- 环球资讯:最快5月发布,微软官方确认Win11 Moment 3更新
- 天天时讯:山东省妇幼保健院再添床位300张,将极大改善妇女儿童就医条件
- 环球快资讯:旧砖瓦,新设计
- 世界关注:为什么黑户也有分付?
- 热议:康斯特:境外子公司已在日常经营的交互场景中使用ChatGPT相关技术
- 当前头条:夫如是夫读音_夫如是的意思
- 世界微头条丨尤文一定要在明天凌晨的比赛中重点盯防扎卡尼,该球...
- 热议:去年业绩冷暖不一 差异化智能化成小家电行业趋势
- 全球观点:经济日报金观平:加快推动房地产向新发展模式平稳过渡
- 全球快讯:如何炸蘑菇更好吃 怎么炸的蘑菇好吃
- 全球观热点:惠丰钻石拟使用5000万自有闲置资金购买理财产品
- 今日报丨全国两会精神看落实丨五一农场:以花为媒促增收
- 环球微动态丨接入央行征信的花呗要关吗安全吗 接入央行征信的花呗要关吗安全吗知乎
- 世界动态:咕卡上面的膜怎么撕
- 天天最资讯丨久远银海涨停 三个交易日机构净买入1.24亿元
- 世界动态:辽宁大连普兰店:在全地区率先推动特邀调解员入驻刑事和解办公室 构建多元化纠纷解决机制
- 环球最资讯丨海口龙华消防联合多部门开展群租楼电动自行车消防安全夜查行动
- 全球微资讯!建筑商为近500户家庭的社区拆除废弃的Rockwall农舍
- 【天天新视野】武汉分配生名额是怎么定的?(附主要流程)
- 天天实时:赤脚吧city_赤脚吧
- 【世界独家】2023甘肃张掖市社会治安巡逻大队招聘拟聘用人员公示
- 观点:三星Galaxy S23 Ultra 256G 北京7990元
- 看点:清明假期北京未发生非法“一日游”突发事件
- 世界快看点丨关于客车超载超员处罚规定
- 世界播报:黄梅县气象台发布大雾黄色预警【III级/较重】
- 全球热点评!儿童相声谁厉害台词_儿童相声 谁厉害
- 重点聚焦!cad安装序列号在哪看_cad安装序列号
- 焦点关注:比拼多多“炸店”更大的瓜:多多公关下场pk商家复仇者联盟
- 环球滚动:眼灰蝶亚科
- 【天天聚看点】广汽集团:3月汽车销量同比增长1.87% 新能源汽车销量同比增长89.83%
- 【世界新要闻】相约黄河岸边,遇见杏花朵朵
- 环球今热点:应聘后不签合同消极怠工以阻扰施工等强索“补偿费”8人被刑拘
- 即时看!继育碧之后,动视现在也向使用转换器的主机玩家重拳出击了
- 环球即时看!第十三届北京国际电影节科技单元集中展映37部国内外科普科幻影片
- 环球即时看!无水焦亚硫酸钠商品报价动态(2023-04-06)
- 环球观天下!走进洪都拉斯科潘玛雅古城遗址
- 【环球新视野】咸阳市市场监管局进餐厅开展制止餐饮浪费活动
- 当前关注:三大航3月份恢复率明显提升 国航已超2019年同期
- 天天要闻:厦门大力支持青年人才“挑大梁”
- 环球快播:亚马逊或调整员工薪酬结构 减少员工股票激励
- 精彩看点:中华思源工程基金会子基金向毕节乡村小学捐赠价值10万元图书
- 天天热头条丨太平洋:给予中国外运增持评级
- 当前速讯:德罗诺夫合腹菊石
- 要闻速递:《逃出岛山村》播放时间是什么时候 《逃出岛山村》是电视剧还是电影
- 焦点速看:大学生应该考取哪些证书?