cvpr一年多少论文?

论文降重 独有的降重技术

免费使用,100%过查重,多种降重模式,1小时轻松搞定论文

论文查重 检测与学校相同

一站式聚合查重平台,含知网、万方、维普等,正品价格便宜

cvpr一年多少论文?

问:cvpr一年多少论文?

  • 答:cvpr一年300篇论文左右。

    国际计算机视觉与模式识别会议(CVPR)是IEEE一年一度的学术性会议,会议的主要内容是计算机视觉与模式识别技术。

    CVPR是世界顶级的计算机视觉会议(三大顶会之一,另外两个是ICCV和ECCV),近年来每年有约1500名参加者,收录的论文数量一般300篇左右。本会议每年都会有固定的研讨主题,而每一年都会有公司赞助该会议并获得在会场展示的机会。

    简介

    CVPR有着较为严苛的录用标准,会议整体的录取率通常不超过30%,而口头报告的论文比例更是不高于5%。而会议的组织方是一个循环的志愿群体,通常在某次会议召开的三年之前通过遴选产生。CVPR的审稿一般是双盲的,也就是说会议的审稿与投稿方均不知道对方的信息。

    通常某一篇论文需要由三位审稿者进行审读。最后再由会议的领域主席(area chair)决定论文是否可被接收。

问:GNN in CVPR2020?

  • 答:CVPR 2020一共收录了67篇GNN相关论文。有空慢慢更。
    1.GraphTER: Unsupervised Learning of Graph Transformation Equivariant Representations via Auto-Encoding Node-wise Transformations    [MSAR]    https://www.bilibili.com/video/av710708361/
    2.Grid-GCN for Fast and Scalable Point Cloud Learning    [点云]
    https://arxiv.org/abs/1912.02984
    摘要:由于点云数据的稀疏性和不规则性,越来越多的方法直接使用点云数据。在所有基于point的模型中,图卷积网络(GCN)通过完全保留数据粒度和利用点间的相互关系表现出显著的性能。然而,基于点的网络在数据结构化(例如,最远点采样(FPS)和邻接点查询)上花费了大量的时间,限制了其速度和可扩展性。本文提出了一种快速、可扩展的点云学习方法--Grid-GCN。Grid-GCN采用了一种新颖的数据结构策略--Coverage-Aware Grid Query(CAGQ)。通过利用网格空间的效率,CAGQ在降低理论时间复杂度的同时提高了空间覆盖率。与最远的点采样(FPS)和Ball Query等流行的采样方法相比,CAGQ的速度提高了50倍。通过网格上下文聚合(GCA)模块,Grid-GCN在主要点云分类和分割基准上实现了最先进的性能,并且运行时间比以前的方法快得多。值得注意的是,在每个场景81920个点的情况下,Grid-GCN在ScanNet上的推理速度达到了50fps。
    3. Object Relational Graph with Teacher-Recommended Learning for Video Captioning
    https://arxiv.org/abs/2002.11566
    摘要:充分利用视觉和语言的信息对于视频字幕任务至关重要。现有的模型由于忽视了目标之间的交互而缺乏足够的视觉表示,并且由于长尾(long-tailed)问题而对与内容相关的词缺乏足够的训练。在本文中,我们提出了一个完整的视频字幕系统,包括一种新的模型和一种有效的训练策略。具体地说,我们提出了一种基于目标关系图(ORG)的编码器,该编码器捕获了更详细的交互特征,以丰富视觉表示。同时,我们设计了一种老师推荐学习(Teacher-Recommended Learning, TRL)的方法,充分利用成功的外部语言模型(ELM)将丰富的语言知识整合到字幕模型中。ELM生成了在语义上更相似的单词,这些单词扩展了用于训练的真实单词,以解决长尾问题。 对三个基准MSVD,MSR-VTT和VATEX进行的实验评估表明,所提出的ORG-TRL系统达到了最先进的性能。 广泛的消去研究和可视化说明了我们系统的有效性。
    4. Social-STGCNN: A Social Spatio-Temporal Graph Convolutional Neural Network for Human Trajectory Prediction
    https://arxiv.org/abs/2002.11927
    https://github.com/abduallahmohamed/Social-STGCNN
    摘要:有了更好地了解行人行为的机器可以更快地建模智能体(如:自动驾驶汽车)和人类之间的特征交互。行人的运动轨迹不仅受行人自身的影响,还受与周围物体相互作用的影响。以前的方法通过使用各种聚合方法(整合了不同的被学习的行人状态)对这些交互进行建模。我们提出了社交-时空图卷积神经网络(Social-STGCNN),它通过将交互建模为图来代替聚合方法。结果表明,最终位偏误差(FDE)比现有方法提高了20%,平均偏移误差(ADE)提高了8.5倍,推理速度提高了48倍。此外,我们的模型是数据高效的,在只有20%的训练数据上ADE度量超过了以前的技术。我们提出了一个核函数来将行人之间的社会交互嵌入到邻接矩阵中。通过定性分析,我们的模型继承了行人轨迹之间可以预期的社会行为。
    5. Unbiased Scene Graph Generation from Biased Training
    https://arxiv.org/abs/2002.11949
    https://github.com/KaihuaTang/Scene-Graph-Benchmark.pytorch
    摘要:由于严重的训练偏差,场景图生成(SGG)的任务仍然不够实际,例如,将海滩上的各种步行/坐在/躺下的人简化为海滩上的人。基于这样的SGG,VQA等下游任务很难推断出比一系列对象更好的场景结构。然而,SGG中的debiasing 是非常重要的,因为传统的去偏差方法不能区分好的和不好的偏差,例如,好的上下文先验(例如,人看书而不是吃东西)和坏的长尾偏差(例如,将在后面/前面简化为邻近)。与传统的传统的似然推理不同,在本文中,我们提出了一种新的基于因果推理的SGG框架。我们首先为SGG建立因果关系图,然后用该因果关系图进行传统的有偏差训练。然后,我们提出从训练好的图中提取反事实因果关系(counterfactual causality),以推断应该被去除的不良偏差的影响。我们使用Total Direct Effect作为无偏差SGG的最终分数。我们的框架对任何SGG模型都是不可知的,因此可以在寻求无偏差预测的社区中广泛应用。通过在SGG基准Visual Genome上使用我们提出的场景图诊断工具包和几种流行的模型,与以前的最新方法相比有显著提升。
    6. Where Does It Exist: Spatio-Temporal Video Grounding for Multi-Form Sentences
    https://arxiv.org/abs/2001.06891
    在本文中,我们考虑了一项用于多形式句子(Multi-Form Sentences)的时空Video Grounding(STVG)的任务。 即在给定未剪辑的视频和描述对象的陈述句/疑问句,STVG旨在定位所查询目标的时空管道(tube)。STVG有两个具有挑战性的设置:(1)我们需要从未剪辑的视频中定位时空对象管道,但是对象可能只存在于视频的一小段中;(2)我们需要处理多种形式的句子,包括带有显式宾语的陈述句和带有未知宾语的疑问句。 由于无效的管道预生成和缺乏对象关系建模,现有方法无法解决STVG任务。为此,我们提出了一种新颖的时空图推理网络(STGRN)。首先,我们构建时空区域图来捕捉具有时间对象动力学的区域关系,包括每帧内的隐式、显式空间子图和跨帧的时间动态子图。然后,我们将文本线索加入到图中,并开发了多步跨模态图推理。接下来,我们引入了一种具有动态选择方法的时空定位器,该定位器可以直接检索时空管道,而不需要预先生成管道。此外,我们在视频关系数据集Vidor的基础上构建了一个大规模的video grounding数据集VidSTG。大量的实验证明了该方法的有效性。

问:advancedmaterialstechnologies投稿难度?

  • 答:还是有一定难度的。
    ADVANCED MATERIALS(ISSN:0935-9648)出版国家是美国,是一本国际认可度良好,影响因子10分+,对国人友好的生物化学领域SCI期刊,各位学者可大胆尝试下。
    1投稿命中率
    (非官网数据):26.67%
    2国人发文占比
    2020年该期刊国人发文占比为 57.84%(177/306)
    3接收文章类型
    绝大部分收录论著,也接收少量其它类型文章
    4偏重方向
    生物医药高分子材料,纳米材料,化学成分
    5投稿经验
    该期刊为ADV MATER 在该细分领域可能是国际一流杂志,但是国内关注少,新材料/方法,新性质,新应用,这几新是这个杂志关注的。如果一个工作能占其中两新,就有机会冲击AM了,能占全就很保险了。文章写作方面,感觉要集中突出强的创新点,除了作者的部分彩图要求之外,期刊是免费的,同时期刊鼓励将作者按照贡献进行说明。
  • 答:1投稿命中率
    (非官网数据):26.67%
    2国人发文占比
    2020年该期刊国人发文占比为 57.84%(177/306)
    3接收文章类型
    绝大部分收录论著,也接收少量其它类型文章
    4偏重方向
    生物医药高分子材料,纳米材料,化学成分
    5投稿经验
    该期刊为ADV MATER 在该细分领域可能是国际一流杂志,但是国内关注少,新材料/方法,新性质,新应用,这几新是这个杂志关注的。如果一个工作能占其中两新,就有机会冲击AM了,能占全就很保险了。文章写作方面,感觉要集中突出强的创新点,除了作者的部分彩图要求之外,期刊是免费的,同时期刊鼓励将作者按照贡献进行说明。
  • 答:百度知道
    advancedmaterialstechnologies投稿难度
    Bale306
    贡献了超过195个回答
    关注
    成为第1位粉丝
    还是有一定难度的。
    ADVANCED MATERIALS(ISSN:0935-9648)出版国家是美国,是一本国际认可度良好,影响因子10分+,对国人友好的生物化学领域SCI期刊,各位学者可大胆尝试下。
    1投稿命中率
    (非官网数据):26.67%
    2国人发文占比
    2020年该期刊国人发文占比为 57.84%(177/306)
    3接收文章类型
    绝大部分收录论著,也接收少量其它类型文章
    4偏重方向
    生物医药高分子材料,纳米材料,化学成分
    5投稿经验
    该期刊为ADV MATER 在该细分领域可能是国际一流杂志,但是国内关注少,新材料/方法,新性质,新应用,这几新是这个杂志关注的。如果一个工作能占其中两新,就有机会冲击AM了,能占全就很保险了。文章写作方面,感觉要集中突出强的创新点,除了作者的部分彩图要求之外,期刊是免费的,同时期刊鼓励将作者按照贡献进行说明。

问:CVPR/ICCV发论文的难度,和什么档次期刊差不多?

  • 答:CVPR的workshop审稿还是很严格的。虽然reviewers和主会不是一套班子,但也都是来自Google/Facebook的顶级学者。难度上,CVPR workshop=B类主会>C类主会。

    CVPR录用标准

    CVPR有着较为严苛的录用标准,会议整体的录取率通常不超过30%,而口头报告的论文比例更是不高于5%。而会议的组织方是一个循环的志愿群体,通常在某次会议召开的三年之前通过遴选产生。CVPR的审稿一般是双盲的,也就是说会议的审稿与投稿方均不知道对方的信息。

    通常某一篇论文需要由三位审稿者进行审读。最后再由会议的领域主席(area chair)决定论文是否可被接收。

    会议概况

    第一届CVPR会议于1983年在华盛顿由金出武雄和Dana Ballard举办,此后每年都在美国本土举行。会议一般在六月举行,而举办地通常情况下是在美国的西部,中部和东部地区之间循环。

    例如,2013年该会议在波特兰召开。而2014年有超过1900人参加了在哥伦比亚举办的会议。而接下来的2015,2016和2017年,该会议分别于波士顿,拉斯维加斯和夏威夷举办。

    CVPR有着较为严苛的录用标准,会议整体的录取率通常不超过30%,而口头报告的论文比例更是不高于5%。

    而会议的组织方是一个循环的志愿群体,通常在某次会议召开的三年之前通过遴选产生。CVPR的审稿一般是双盲的,也就是说会议的审稿与投稿方均不知道对方的信息。通常某一篇论文需要由三位审稿者进行审读。最后再由会议的领域主席(area chair)决定论文是否可被接收。

    在各种学术会议统计中,CVPR被认为有着很强的影响力和很高的排名。目前在中国计算机学会推荐国际学术会议的排名中,CVPR为人工智能领域的A类会议  。在巴西教育部的排名中排名为A1。基于微软学术搜索(Microsoft Academic Search)2014年的统计,CVPR中的论文总共被引用了169,936次。

问:EfficientDet : 快又准,EfficientNet作者在目标检测领域的移植 | CVPR 2020?

  • 答: 论文: EfficientDet: Scalable and Efficient Object Detection

      目前目标检测领域,高精度的模型通常需要很大的参数量和计算量,而轻量级的网络则一般都会牺牲精度。因此,论文希望建立一个可伸缩的高精度且高性能的检测框架。论文基于one-stage的检测网络范式,进行了多种主干网络、特征融合和class/box预测的结构尝试,主要面临两个挑战:

      FPN是目前最广泛的多尺度融合方法,最近也有PANet和NAS-FPN一类跨尺度特征融合方法。对于融合不同的特征,最初的方法都只是简单地直接相加,然而由于不同的特征是不同的分辨率,对融合输出特征的共享应该是不相等的。为了解决这一问题,论文提出简单但高效加权的bi-directional feature pyramid network(BiFPN),该方法使用可学习的权重来学习不同特征的重要性,同时反复地进行top-down和bottom-up的多尺度融合

      论文认为除了缩放主干网络和输入图片的分辨率,特征网络(feature network)和box/class预测网络的缩放对准确率和性能也是很重要的。作者借鉴EfficientNet,提出针对检测网络的混合缩放方法(compound scaling method),同时对主干网络,特征网络和box/class预测网络的分辨率/深度/宽度进行缩放

      最后,论文将EfficientNet作为主干,结合BiFPN和混合缩放,提出新的检测系列EfficientDet,精度高且轻量,COCO上的结果如图1,论文的贡献有以下3点:

      定义多尺寸特征 ,论文的目标是找到变化函数 来高效融合不同的特征,输出新特征 。具体地,图2a展示了top-down FPN网络结构,一般FPN只有一层,这里应该为了对比写了repeat形式。FPN获取3-7层的输入 , 代表一个分辨率为 的特征层

      top-down FPN操作如上所示, 为上采用或下采样来对齐分辨率, 通常是特征处理的卷积操作

      top-down FPN受限于单向的信息流,为了解决这一问题,PANet(图2b)增加了额外的bottom-up路径的融合网络,NAS_FPN(图2c)使用神经架构搜索来获取更好的跨尺度特征网络的拓扑结构,但需要大量资源进行搜索。其中准确率最高的是PANet,但是其需要太多的参数和计算量,为了提高性能,论文对跨尺寸连接做了几点改进:

      大多的特征融合方法都将输入特征平等对待,而论文观察到不同分辨率的输入对融合输出的特征的贡献应该是不同的。为了解决这一问题,论文提出在融合时对输入特征添加额外的权重预测,主要有以下方法:

      , 是可学习的权重,可以是标量(per-feature),也可以是向量(per-channel),或者是多维tensor(per-pixel)。论文发现标量形式已经足够提高准确率,且不增加计算量,但是由于标量是无限制的,容易造成训练不稳定,因此,要对其进行归一化限制

      ,利用softmax来归一化所有的权重,但softmax操作会导致GPU性能的下降,后面会详细说明

      ,Relu保证 , 保证数值稳定。这样,归一化的权重也落在 ,由于没有softmax操作,效率更高,大约加速30%

      BiFPN集合了双向跨尺寸的连接和快速归一化融合,level 6的融合操作如上, 为top-down路径的中间特征, 是bottom-up路径的输出特征,其它层的特征也是类似的构造方法。为了进一步提高效率,论文特征融合时采用depthwise spearable convolution,并在每个卷积后面添加batch normalization和activation

      EfficientDet的结构如图3所示,基于one-stage检测器的范式,将ImageNet-pretrained的EfficientNet作为主干,BiFPN将主干的3-7层特征作为输入,然后重复进行top-down和bottom-up的双向特征融合,所有层共享class和box网络

      之前检测算法的缩放都是针对单一维度的,从EfficientNet得到启发,论文提出检测网络的新混合缩放方法,该方法使用混合因子 来同时缩放主干网络的宽度和深度、BiFPN网络、class/box网络和分辨率。由于缩放的维度过多,EfficientNet使用的网格搜索效率太慢,论文改用heuristic-based的缩放方法来同时缩放网络的所有维度

      EfficientDet重复使用EfficientNet的宽度和深度因子,EfficinetNet-B0至EfficientNet-B6

      论文以指数形式来缩放BiFPN宽度 (#channels),而以线性形式增加深度 (#layers),因为深度需要限制在较小的数字

      box/class预测网络的宽度固定与BiFPN的宽度一致,而用公式2线性增加深度(#layers)

      因为BiFPN使用3-7层的特征,因此输入图片的分辨率必需能被 整除,所以使用公式3线性增加分辨率

      结合公式1-3和不同的 ,论文提出EfficientDet-D0到EfficientDet-D6,具体参数如Table 1,EfficientDet-D7没有使用 ,而是在D6的基础上增大输入分辨率

      模型训练使用momentum=0.9和weight decay=4e-5的SGD优化器,在初始的5%warm up阶段,学习率线性从0增加到0.008,之后使用余弦衰减规律(cosine decay rule)下降,每个卷积后面都添加Batch normalization,batch norm decay=0.997,epsilon=1e-4,梯度使用指数滑动平均,decay=0.9998,采用 和 的focal loss,bbox的长宽比为 ,32块GPU,batch size=128,D0-D4采用RetinaNet的预处理方法,D5-D7采用NAS-FPN的增强方法

      Table 2展示了EfficientDet与其它算法的对比结果,EfficientDet准确率更高且性能更好。在低准确率区域,Efficient-D0跟YOLOv3的相同准确率但是只用了1/28的计算量。而与RetianaNet和Mask-RCNN对比,相同的准确率只使用了1/8参数和1/25的计算量。在高准确率区域,EfficientDet-D7达到了51.0mAP,比NAS-FPN少使用4x参数量和9.3x计算量,而anchor也仅使用3x3,非9x9

      论文在实际的机器上对模型的推理速度进行了对比,结果如图4所示,EfficientDet在GPU和CPU上分别有3.2x和8.1x加速

      论文对主干网络和BiFPN的具体贡献进行了实验对比,结果表明主干网络和BiFPN都是很重要的。这里要注意的是,第一个模型应该是RetinaNet-R50(640),第二和第三个模型应该是896输入,所以准确率的提升有一部分是这个原因。另外使用BiFPN后模型精简了很多,主要得益于channel的降低,FPN的channel都是256和512的,而BiFPN只使用160维,这里应该没有repeat

      Table 4展示了Figure 2中同一网络使用不同跨尺寸连接的准确率和复杂度,BiFPN在准确率和复杂度上都是相当不错的

      Table 5展示了不同model size下两种加权方法的对比,在精度损失不大的情况下,论文提出的fast normalized fusion能提升26%-31%的速度

      figure 5展示了两种方法在训练时的权重变化过程,fast normalizaed fusion的变化过程与softmax方法十分相似。另外,可以看到权重的变化十分快速,这证明不同的特征的确贡献是不同的,

      论文对比了混合缩放方法与其它方法,尽管开始的时候相差不多,但是随着模型的增大,混合精度的作用越来越明显

      论文提出BiFPN这一轻量级的跨尺寸FPN以及定制的检测版混合缩放方法,基于这些优化,推出了EfficientDet系列算法,既保持高精度也保持了高性能,EfficientDet-D7达到了SOTA。整体而言,论文的idea基于之前的EfficientNet,创新点可能没有之前那么惊艳,但是从实验来看,论文推出的新检测框架十分实用,期待作者的开源



问:beststudentpaper很难获得吗?

  • 答:能获得Best Student Paper更是难上加难,2022CVPR共有八千多篇论文投稿,最后只有一篇入选,说是万里挑一并不为过。
    他的这篇论文主要研究的核心问题是PnP,也就是通过单张图片来确定3D物体的位置跟姿势的问题。
    PnP 问题起源于 1841 年的摄影测量领域,由 Fishler 和 Bolles 于 1981 年正式提出,是计算机视觉领域的一个经典问题。PnP 问题又称为给定控制点的位姿估计问题,即在给定相机内部参数条件下,拍摄一幅包含 n 个空间参考点的图像,已知这 n 个参考点在世界坐标系下和其对应投影点在图像坐标系下的坐标,通过它们之间的对应关系,计算相机在拍摄图像时所处的位置和姿态。
    PnP 问题根据空间参考点数目 n 的大小,可以分成 2 类: 一类是 3 ≤ n ≤5 的情况,另一类是 n ≥6 的情况。
    第一类情况又可以具体分为 P3P 问题、P4P 问题和 P5P 问题。对于 P3P 问题,当 3 个空间参考点所决定的平面不通过光心时,最多有 4 个解; 对于 P4P 问题,当 4 个空间参考点共面时,有唯一解,不共面时,最多有 5 个解; 对于 P5P 问题,任 3 个参考点不共线时,最多可以有 2 个解。这一类 PnP 问题由于用于计算的参考点数较少,所以通常存在多解问题且对图像噪声极为敏感,抗干扰能力较弱。第二类 PnP 问题,用于计算位姿的参考点较多,所以此类情况下 PnP 问题研究的焦点为求解位姿的精度、时间复杂度和算法的鲁棒性与抗噪性等。

问:人民论坛投稿要求?

  • 答: 人民论坛投稿要求

    人民论坛投稿要求,《人民论坛》创刊于1992年,《人民论坛》杂志由人民日报社主管主办,为全国中文核心期刊,CSSCI中文社会科学引文索引期刊(含扩展版),全国百种重点社科期刊,国家期刊奖百种重点期刊,中国邮政发行畅销报刊,一起来了解人民论坛投稿要求吧

    人民论坛投稿要求1

    本刊主要刊发政治学、社会学、经济学、法学、历史学等学科文章,尤其欢迎实证性、理论性以及跨文化、跨学科的研究成果。

    本刊实行专家匿名审稿制度,不论资排辈,无内外之别,高水平稿件将从快发表,稿酬从优。

    来稿内容要求具有学术性,能反映当前人文和社会科学研究领域中的新成果。文章应主题突出,论点明确,层次清楚,论据可靠。稿件文责自负,本刊编辑部有改动或调整文字的权力。

    作者保证论文不泄漏国家秘密。若发生泄密问题,一切责任由作者承担。论文如果为涉密科研项目资助产出论文,作者须提交所在单位的保密审批意见。

    本刊谢绝纸质来稿,请一律以Word文件格式通过投稿平台上传,投稿请自留底稿。谢绝一稿多投,一个月内若收不到用稿通知,可自行处理。

    撰写要求

    一、论文书写顺序

    论文的书写顺序为:中文题目,作者署名,中文摘要与关键词,基金项目,作者简介,作者联系方式,正文,参考文献。

    二、题目

    题目应能准确概括文章内容。

    三、作者

    署名一般不超过2人,顺序由作者自定,各作者之间以空格分隔。英文名顺序应与中文相同。

    作者简介包括姓名、机构、职称,机构应写正式全称,不用简称,其后在圆括号内标明城市名、邮政编码。多个机构的`情况下,不同机构之间以“、”分隔。请在文末附上作者联系方式,包括详细通讯地址、邮编、联系电话、Email等。若有多个作者,或作者联系不便,请指定一位联系人。

    四、摘要与关键词

    摘要以200字左右为宜,独立成篇,不分段,意义完整;用第三人称撰写,要求完整准确地概括文章的实质性内容,不用“本文”“作者”等词语。

    五、基金项目

    基金项目论文请注明资助基金的正式名称,并在圆括号内注明其项目编号。

    六、各级标题

    正文层次标题应简短明确,题末不用标点符号。各层次标题依次用汉字数字、加括号的汉字数字、阿拉伯数字、加括号的阿拉伯数字,如“一、”“一、”“1”等。

    七、图、表

    能用文字表达清楚的内容,尽量不用图和表,如用图表,则在文中不重复其数据,但需摘述其主要内容并进行分析。图表随文编排,先见文字后见图表,要有图号和表号,并在文章标出。照片要求清晰,层次分明。表格一般用三线表,上方应有表序、表题,表的栏目中量名称或量符号/量单位应齐全。

    八、文献注释规范

    须符合“《人民论坛》文献注释规范”要求,

    人民论坛投稿要求2

    人民论坛办刊成果

    据2020年8月11日中国知网显示,《人民论坛》共出版文献量34244篇。

    据2020年8月11日万方数据知识服务平台显示,《人民论坛》共载文23153篇,基金论文量为4545篇。

    收录情况

    《人民论坛》是北京大学《中文核心期刊要目总览》(2008年版、2011年版、2014年版、2017年版)来源期刊、CSSCI中文社会科学引文索引(2019-2020)来源期刊(含扩展版)、国家哲学社会科学学术期刊数据库、中国人文社科核心期刊、中国知网、万方数据等收录。

    影响因子

    据2020年8月11日中国知网显示,《人民论坛》总被下载次数7304944次、总被引次数84866次,(2019)复合影响因子为0.484,(2019)综合影响因子为0.228。

    据2020年8月11日万方数据知识服务平台显示,《人民论坛》被引量39591次、下载量823559次,基金论文量为4545篇,据2018年中国期刊引证报告(扩刊版)数据显示,该刊影响因子为0.52,在全部统计源期刊(6719种)中排第3640名。