Navigation

    Gpushare.com

    • Register
    • Login
    • Search
    • Popular
    • Categories
    • Recent
    • Tags
    1. Home
    2. 153****2211
    • Profile
    • Following 0
    • Followers 1
    • Topics 192
    • Posts 223
    • Best 184
    • Groups 0

    153****2211

    @153****2211

    245
    Reputation
    32
    Profile views
    223
    Posts
    1
    Followers
    0
    Following
    Joined Last Online

    153****2211 Unfollow Follow

    Best posts made by 153****2211

    • “Salute!” Object Detection 20年 前三章小结

      Object Detection 20年

      30140e2e-726b-43bb-a501-53e26a1b5de2-image.png
      这是19年末发表的一篇文章,里面提到的有些技术以现在眼光来看可能有些过时,但是我个人认为依然是一篇很好的启蒙时读物。倘若将里面每个知识点掰开嚼碎,一点点吸收。这有助于你对目标检测有一个系统性了解。

      第一章 目标检测的里程碑

      可以用一张很经典的图来表示目标检测的发展史
      210d164e-502b-41d8-9d5c-a7884affaee9-image.png

      1.概要

      2012年是深度学习的元年,那一年AlexNet使用卷积神经网络,打破机器学习的极限。从此开启深度学习年代。

      2.技术总结

      2014年RCNN的发布开启了目标检测的时代,然后目标检测开启三分天下的局面,一是以RCNN为代表的 two-stage detector,一是以yolo为代表的one-stage detector,最后是以ssd为代表的中间派,准确度介于两者之间。

      名称 准确度 识别速度
      RCNN 高 慢
      SSD 中 中
      YOLO 低 快

      而后几年特别是最近几年技术都是在这几个基础上发展的,但是2020年-至今,研究人员突破方向放在无先验框上,趋势朝着无监督学习上去。(仅个人观点,如有异议欢迎讨论)

      第二章

      2.1.1 传统检测器

      N. Dalal和B. Triggs [12]最初于2005年提出了定向梯度直方图(HOG)特征描述器。 HOG可被认为是其时间尺度不变特征变换[33,34]和形状上下文[35]的重要改进。为了平衡特征不变性(包括平移,缩放,照度等)和非线性(区分不同的对象类别),将HOG描述符设计为在均匀间隔的像元的密集网格上进行计算,并使用重叠的局部对比度归一化(在“块”上)以提高准确性。尽管HOG可用于检测各种对象类别,但它主要是由行人检测问题引起的。为了检测不同大小的物体,HOG检测器会多次缩放输入图像,同时保持检测窗口的大小不变。多年来,HOG检测器一直是许多对象检测器[13、14、36]和各种计算机视觉应用的重要基础。
      HOG (转至https://zhuanlan.zhihu.com/p/40960756)

      2.1.2 Milestones: CNN based Two-stage Detectors

      在2012年,世界见证了卷积神经网络的重生[40]。由于深度卷积网络能够学习图像的鲁棒(鲁棒性代表这该模型的稳定性以及扛干扰性,如果在迁移学习中还可以代表该模型的可迁移性)。有一个例子可以加深理解且高级的特征表示,因此自然而然的问题是,我们是否可以将其用于对象检测? R. Girshick等通过提出Regions with CNN features(RCNN)来检测物体,率先打破了僵局。从那时起,物体检测开始以前所未有的速度发展。
      在深度学习时代,对象检测可以分为两类:“Two-stage检测”和“One-stage检测”,其中前者将检测过程称为“从粗到精”过程,而后者则将其视为“一步完成”。
      RCNN背后的思想很简单:它始于通过selective search提取一组object proposals(object candidate boxes)[42]。 然后将每个proposal重新缩放为固定大小的图像,并输入到ImageNet上训练的CNN模型中(例如AlexNet [40])以提取特征。 最后,线性SVM分类器用于预测每个区域内对象的存在并识别对象类别.
      尽管RCNN取得了长足的进步,但它的缺点也很明显:对大量重叠的proposals(从一张图像中提取2000多个框)进行冗余特征计算会导致极慢的检测速度(使用GPU,每张图像14s)。 同年晚些时候,SPPNet 提出并克服了这个问题。
      总结:
      selective search ——> rescale proposal ——> CNN提取特征 ——> SVM分类
      参考:
      目标检测(1)Selective Search

      ————————————————
      版权声明:本文并不都是原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明,如有侵权,可联系删除。

      posted in CV领域
      153****2211
      153****2211
    • “Salute!”从零开始softmax的实现-tensorflow

      1.softmax的数学公式

      1.1softmax的公式

      在这里插入图片描述

      1.2softmax的损失函数

      softmax使用是损失函数是交叉熵(cross entropy),数学公式表现如下
      在这里插入图片描述
      也就是说,交叉熵只关心对正确类别的预测概率,因为只要其值足够大,就可以确保分类结果正确。当然,遇到一个样本有多个标签时,例如图像里含有不止一个物体时,我们并不能做这一步简化。但即便对于这种情况,交叉熵同样只关心对图像中出现的物体类别的预测概率。

      假设训练数据集的样本数为nn,交叉熵损失函数定义为
      在这里插入图片描述

      1.3小结

      总而言之,softmax是将最后一层所得到的结果,进行转换成总和为1的概率问题。

      2.softmax的python代码

      2.1 导入库

      import tensorflow as tf
      import numpy as np
      print(tf.__version__)
      

      ↑基本模块tensorflow跟numpy的导入

      from tensorflow.keras.datasets import fashion_mnist
      
      batch_size=256
      (x_train, y_train), (x_test, y_test) = fashion_mnist.load_data()
      x_train = tf.cast(x_train, tf.float32) / 255 #在进行矩阵相乘时需要float型,故强制类型转换为float型
      x_test = tf.cast(x_test,tf.float32) / 255 #在进行矩阵相乘时需要float型,故强制类型转换为float型
      train_iter = tf.data.Dataset.from_tensor_slices((x_train, y_train)).batch(batch_size)
      test_iter = tf.data.Dataset.from_tensor_slices((x_test, y_test)).batch(batch_size)
      
      

      ↑这里很好理解就是定义train 跟 test 的数据来源与类型

      num_inputs = 784
      num_outputs = 10
      W = tf.Variable(tf.random.normal(shape=(num_inputs, num_outputs), mean=0, stddev=0.01, dtype=tf.float32))
      b = tf.Variable(tf.zeros(num_outputs, dtype=tf.float32))
      

      ↑初始化模块参数,因为minst-fashion的图像都是28x28的所以作为为全连接层,就是784个节点,output就是指最后输出的10个类别的参数。

      def softmax(logits, axis=-1):
          return tf.exp(logits)/tf.reduce_sum(tf.exp(logits), axis, keepdims=True)
      
      

      ↑定义softmax的运算:为了更好理解代码就将上面公式拿过来
      在这里插入图片描述
      tf.exp(logits):是给logic进行exp运算就是log
      tf.reduce_sum()在这里插入图片描述
      在这里插入图片描述
      我们可以得知就是进行上面式子的操作

      def net(X):
          logits = tf.matmul(tf.reshape(X, shape=(-1, W.shape[0])), W) + b
          return softmax(logits)
      
      

      ↑定义模型:tf.reshape 是将X,转换成W的行数,前面的-1表示函数自动计算列数。这一步是为了消除x与w矩阵不匹配的问题。
      shape[0] = = >行数

      shape[1] = =>列数
      而tf.matmul函数就是进行X*W的矩阵运算。

      def cross_entropy(y_hat, y):
          y = tf.cast(tf.reshape(y, shape=[-1, 1]),dtype=tf.int32)
          y = tf.one_hot(y, depth=y_hat.shape[-1])
          y = tf.cast(tf.reshape(y, shape=[-1, y_hat.shape[-1]]),dtype=tf.int32)
          return -tf.math.log(tf.boolean_mask(y_hat, y)+1e-8)
      
      

      ↑定义损失函数:
      假设y=[0,2] 一行两列 y_hat=[[0.1,0.3,0.6] [0.3,0.2,0.5]] 两行三列
      第一步
      先进行数据类型的转换,转换成int类型,并且用reshape(-1,1)函数将y变成N行一列的矩阵。 y=[[0],[2]]两行一列
      第二步
      进行one_hot,首先进行depth的计算,y_hat.shape[-1]指定是列数就是3所以depth=3。式子就变成了y=th.one_hot(y,3)
      而 one_hot是返回一个张量,这里如果不好理解可以查阅该函数的解释。这里就不多介绍了
      所以y就变成一个2x1x3的矩阵,并进行了热编码为[[1,0,0][0,0,1]],==这是二维的向量==
      第三步
      shape=[-1, y_hat.shape[-1]])中y_hat.shape[-1]为3,所以最后将y变成n行3列,用我假设的矩阵的话y就是([1,0,0][0,0,1])==这是一维的向量==
      第四步
      进行计算tf.boolean_mask(y_hat, y),这里可以理解为矩阵运算,得到的结果就是([0.1][0.5]),然后再+1e-8,在进行log计算

      def accuracy(y_hat, y):
          return np.mean((tf.argmax(y_hat, axis=1) == y))
      
      

      ↑这里是进行数据预测,最后的结果与实际结果是否相吻合。简而言之那上述举得例子。y=[0,2] 一行两列 y_hat=[[0.1,0.3,0.6] [0.3,0.2,0.5]] 两行三列
      那么得到的结果就是0.5的准确率应为y_hat 的最大之因该为[2,2]。

      # 描述,对于tensorflow2中,比较的双方必须类型都是int型,所以要将输出和标签都转为int型
      def evaluate_accuracy(data_iter, net):
          acc_sum, n = 0.0, 0
          for _, (X, y) in enumerate(data_iter):
              y = tf.cast(y,dtype=tf.int64)
              acc_sum += np.sum(tf.cast(tf.argmax(net(X), axis=1), dtype=tf.int64) == y)
              n += y.shape[0]
          return acc_sum / n
      
      

      ↑这里是我们可以评价模型net在数据集data_iter上的准确率。

      #完整的训练数据集
      num_epochs, lr = 5, 0.1
      def train_ch3(net, train_iter, test_iter, loss, num_epochs, batch_size, params=None, lr=None, trainer=None):
          for epoch in range(num_epochs):
              train_l_sum, train_acc_sum, n = 0.0, 0.0, 0
              for X, y in train_iter:
                  with tf.GradientTape() as tape:
                      y_hat = net(X)
                      l = tf.reduce_sum(loss(y_hat, y))
                  grads = tape.gradient(l, params)
                  if trainer is None:
                      # 如果没有传入优化器,则使用原先编写的小批量随机梯度下降
                      for i, param in enumerate(params):
                          param.assign_sub(lr * grads[i] / batch_size)
                  else:
                      # tf.keras.optimizers.SGD 直接使用是随机梯度下降 theta(t+1) = theta(t) - learning_rate * gradient
                      # 这里使用批量梯度下降,需要对梯度除以 batch_size, 对应原书代码的 trainer.step(batch_size)
                      trainer.apply_gradients(zip([grad / batch_size for grad in grads], params))  
      
                  y = tf.cast(y, dtype=tf.float32)
                  train_l_sum += l.numpy()
                  train_acc_sum += tf.reduce_sum(tf.cast(tf.argmax(y_hat, axis=1) == tf.cast(y, dtype=tf.int64), dtype=tf.int64)).numpy()
                  n += y.shape[0]
              test_acc = evaluate_accuracy(test_iter, net)
              print('epoch %d, loss %.4f, train acc %.3f, test acc %.3f'% (epoch + 1, train_l_sum / n, train_acc_sum / n, test_acc))
      
      trainer = tf.keras.optimizers.SGD(lr)
      train_ch3(net, train_iter, test_iter, cross_entropy, num_epochs, batch_size, [W, b], lr)
      
      

      ↑

      #预测结果
      import matplotlib.pyplot as plt
      X, y = iter(test_iter).next()
      
      def get_fashion_mnist_labels(labels):
          text_labels = ['t-shirt', 'trouser', 'pullover', 'dress', 'coat', 'sandal', 'shirt', 'sneaker', 'bag', 'ankle boot']
          return [text_labels[int(i)] for i in labels]
      
      def show_fashion_mnist(images, labels):
          # 这⾥的_表示我们忽略(不使⽤)的变量
          _, figs = plt.subplots(1, len(images), figsize=(12, 12)) # 这里注意subplot 和subplots 的区别
          for f, img, lbl in zip(figs, images, labels):
              f.imshow(tf.reshape(img, shape=(28, 28)).numpy())
              f.set_title(lbl)
              f.axes.get_xaxis().set_visible(False)
              f.axes.get_yaxis().set_visible(False)
          plt.show()
      
      true_labels = get_fashion_mnist_labels(y.numpy())
      pred_labels = get_fashion_mnist_labels(tf.argmax(net(X), axis=1).numpy())
      titles = [true + '\n' + pred for true, pred in zip(true_labels, pred_labels)]
      
      show_fashion_mnist(X[0:9], titles[0:9])
      
      

      ↑

      3.softmax的keras代码

      import tensorflow as tf
      from tensorflow import keras
      fashion_mnist = keras.datasets.fashion_mnist
      (x_train, y_train), (x_test, y_test) = fashion_mnist.load_data()
      x_train = x_train / 255.0
      x_test = x_test / 255.0
      model = keras.Sequential([
          keras.layers.Flatten(input_shape=(28, 28)),
          keras.layers.Dense(10, activation=tf.nn.softmax)
      ])
      model.compile(optimizer=tf.keras.optimizers.SGD(0.1),
                    loss = 'sparse_categorical_crossentropy',
                    metrics=['accuracy'])
      
      model.fit(x_train,y_train,epochs=5,batch_size=256)
      
      test_loss, test_acc = model.evaluate(x_test, y_test)
      print('Test Acc:',test_acc)
      

      这里代码就不进行过多的叙述,用kreas这种高度集合的框架确实方便。但是这种对日后代码具体调试是极为不利的。
      这是自己很早之前写的,copy过来偷个懒

      posted in CV领域
      153****2211
      153****2211
    • Salute!CE-FPN: Enhancing Channel Information forObject Detection

      声明:该论文本人也只是结合自身理解与翻译软件进行结合,难免会囫囵吞枣或者对原词义表达的南辕北辙,这里我提议一下,对任何paper都要自身亲自结合原文去阅读一篇,以免被翻译者带偏。

      CE-FPN: Enhancing Channel Information forObject Detection
      000881e0-14d2-4cc2-8a04-edf785eb7e8b-image.png

      摘要

      作者提出一种新的特征金字塔,用于改进特征提取。开头依旧是常规的对现有的FPN结构进行缺点说教,从而引出作者的CE-FPN结构。而这里面着重提到一个概念Sub-piexl亚像素卷积,这个概念我也是第一次接触,所以直接转载别人的链接,如果不理解的可以点击链接查看一下。总得来说,受亚像素卷积的启发,作者提出了一种"亚像素跳跃"( a sub-pixel skip fusion)融合方法来实现信道增强和上采样。它取代了原来的1×1卷积和上采样,减少了信道缩减带来的信息损失。在此基础上,提出了一种子像素上下文增强模块( a sub-pixelcontext enhancement module)来提取更多的特征表示,由于子像素卷积利用了丰富的通道信息,因此优于其他上下文方法。此外,引入通道注意力引导模块来优化每个层次上的最终综合特征,只需很少的计算量就可以消除混叠效果。我们的实验表明,CE-FPN在MS Coco基准上与最先进的FPN相比获得了很好的性能。

      第一章,简介

      前面就不做过多描述,无非就是千遍一律的介绍FPN的历史。不过值得注意的就是这里作者提到几种有代表性的FPN结构,感兴趣的可以自行阅读。
      [PAFPN](S. Liu, L. Qi, H. Qin, J. Shi, and J. Jia, “Path aggregation network forinstance segmentation,” inProceedings of the IEEE/CVF Conference onComputer Vision and Pattern Recognition, 2018, pp. 8759–8768.)
      [Libra R-CNN](. Pang, K. Chen, J. Shi, H. Feng, W. Ouyang, and D. Lin, “Libra r-cnn: Towards balanced learning for object detection,” inProceedings ofthe IEEE/CVF Conference on Computer Vision and Pattern Recognition,2019, pp. 821–830.)
      [AugFPN](C. Guo, B. Fan, Q. Zhang, S. Xiang, and C. Pan, “Augfpn: Improvingmulti-scale feature learning for object detection,” inProceedings of theIEEE/CVF Conference on Computer Vision and Pattern Recognition,2020, pp. 12 595–12 604)

      另外提到了三个tips:

      • Information loss of channel reduction
        f0d486f6-5ad2-489b-bdc6-1342333dc782-image.png
        如图(a)所示,FPN的方法是采用1×1卷积层来降低输出特征图Ci的通道维数,但是同时这也丢失了通道信息,通常Ci中提取数千个通道,但是到Fi这就是有十几或者几百。(如2048到256)
        11160114-60da-42e9-9145-a9243d54eccc-image.png 73d5e751-0d94-41f4-858c-a289d186c9d9-image.png
        现有的方法是(b)(c)两种,再格外的添加模块用来增强Fi信息,但是增加额外的模块又进行复杂连接,会大大增加计算量,这也会导致信息的丢失。所以作者们就提出了(d)。
        ad0532a6-cec0-4e4c-85a3-1cde1042535b-image.png

      • Information decay during fusion
        低维度信息和高维度信息对于目标检测来说是互补的,而语义信息在自上而下的特征融合过程中则会被稀释,PAFPN和Libra R-CNN提出了创新的融合方法,以充分利用每个层次上的特征。然而,高层语义任未得到最大程度的利用。利用上下文信息是改进特征表示的一种合适方法,它避免了直接增加更深的卷积层而增加机器的计算量。

      • Aliasing effects in cross-scale fusion
        跨尺度融合和跳跃连接被广泛用于提高性能。然而,跨尺度特征映射在语义上存在差异,因此插值后的直接融合可能会造成混合效应。而繁杂的集成特征可能会对定位和识别不准。

      作者提出三大改进。

      1.受到亚像素卷积的启发,提出来一种亚像素跳跃融合方法,利用原始通道信息进行跨尺度输出。
      973eb889-f2f7-4adf-9e94-84d821af3c9c-image.png
      2.我们提出了一种亚像素上下文增强模块,用于从最高层特征图中提取和整合不同的文本信息。亚像素卷积是一种先增加低分辨率图像信道维数的上采样方法,会带来额外的计算量和不可靠性。值得注意的是,FPN 中的高级特征已经获得了足够的信道量,从而可以直接使用亚像素卷积。该方法取代了原来的1×1卷积和上采样,可以减轻信道信息损失。因此,我们扩展了原有的亚像素卷积上采样函数来融合通道信息,这不同于Carafe。
      3.我们提出了一个简单又高效的通道注意力模块,以优化各个层次上的最终特征。注意力模块只用了少量的计算量就减轻了混淆效应。我们将整个模型命名为(CE-FPN),该模型对各种基于FPN的检测器具有灵活性和通用性。
      这一段我直接贴原文吧,感觉理解不到位。94ba09df-29f5-4e6c-8211-82a8449e7531-image.png

      第二章 相关工作

      紧接着引出了,FPN的历史,FPN是一种自上而下的特征提取,经过PANet改进,添加了一种额外的自下而上的途径,以进一步增加深层中的低级信息。Libra R-cnn引入了平衡特征金字塔,融合和提炼多尺度特征要素。NAS-FPN采用神经结构搜索来学习所有跨尺度连接以达到更好的融合。EfficientDet提出了一种加权的双向FPN来进行简单快速的特征融合,AugFPN提出了一系列的FPN增强方法。(反正就是各比各的好呗)
      另外在特征增强方面,上下文信息可以促进定位和分类的执行。PSPnet利用金字塔池来提取全局各层之间的上下文。并提出一种上下文提炼的方法。同时,在各种视觉任务中,通常采用注意机制来增强特征表征。
      在上述方法的基础上,重点研究了如何减少FPN构建过程中信道衰落带来的信息损失,并对复杂集成化的层的最终特征进行了优化。

      第三章 方法与建议

      在这一部分中,我们介绍了一种信道增强特征金字塔网络(CE-FPN),以减轻信道信息损失,优化综合特性。在CE-FPN中,提出了三个组成部分:亚像素跳跃融合(SSF)、亚像素上下文增强(SCE)和信道注意引导模块(CAG)。我们将在下面对它们进行详细描述。
      ded5851c-6eaf-4798-add1-b8c642caa801-image.png

      overall

      我们将主干的输出表示为{ C2,C3,C4,C5} ,它们相对于输入图像具有{4,8,16,32}的像素。
      {F2,F3,F4}是经过1×1卷积后具有相同通道数的特征层(256)。
      特征金字塔FPN由{P2,P3,P4}自上而下生成。
      我们去掉了F5和P5的节点,它们是原始的具有语义信息的FPN的最高层特征。因为我们提出的方法有效地利用了C5的信道信息。重复特征融合不仅会造成更严重的混叠效应,而且会带来不必要的计算负担。这一过程的效果会在第四节中进行了分析。集成映射 I是通过 interpolation和 max-pooling 生成的。并且在所有最终结果{ R2,R3,R4,R5} 上独立地执行预测,这与原始 FPN 的特征金字塔相对应。

      sub-pixel skip fusion

      在FPN中,残差网络被广泛用作骨架,输出通道为{256,512,1024,2048},其中高层特征{C4,C5}包含丰富的语义信息。如图所示(a),为了提高计算效率,采用1×1卷积层来降低信道维数,造成信道信息的严重丢失。进一步研究的基于FPN的方法一般集中在{256}就是C2通道的特征金字塔上开发有效的模块,而Ci 丰富的通道信息没有得到充分利用。
      82dbe50a-0d73-44dd-bd14-5360d9e5f58a-image.png
      基于这一结果,我们希望可以开发丰富的通道特征{C4,C5}来改善所得到的特征金字塔的性能。为此,我们引入了一种直接融合方法,将低分辨率(LR)特征融合到高分辨率(HR)中,这是一种受亚像素卷积启发的上采样方法,它通过在通道维度上像素混淆来处理宽度和高度维度。像素混洗(The pixel shuffle),是指将H,W进行重新定义。
      7855f91f-79d1-4acc-911c-14cae1a5c248-image.png
      其中r表示放大比例,F使输入特征,PS(F)xyc表示坐标(x,y,c)上的输出特征像素。
      7cdc89cb-3ef3-4ccb-a3db-ff84c4e88cf2-image.png
      如(b)所示,当使用亚像素卷积作为上采样时,需要首先增加LR图像信道的维数,这带来了额外的计算。并且HR图像不准确,还需要进行额外的训练,因此FPN采用最近邻上采样以简化操作。然而,我们观察到{ C4,C5}(1024,2048)中的通道数量足以进行亚像素卷积,因此,如图©所示,
      f6196536-7ad8-49c3-a285-bdcc966c213c-image.png 我们引入了亚像素跳过融合(SSF)对LR图像直接进行上采样,而无需减少通道。SSF利用{C4,C5}丰富的信道信息,将它们合并到Fi中,描述为
      d47bf5e1-8222-4ef0-a768-49d3e34f2361-image.png
      48699766-acd3-4485-b0a2-8e9ddb043e21-image.png ca626c55-5c39-4002-9af8-f383b569e72d-image.png

      sub-pixel Context Enhancement

      在传统的FPN中,通过融合高层的信息,低层的特征地图自然地被赋予了不同的上下文信息。但是最高级别的特征只包含单个尺度的上下文信息,不能从其他特征中受益。另一方面,更高分辨率的输入图像(例如,800像素的较短尺寸)需要具有更大接收野的神经元来获取更多的语义信息来捕获大对象。为了缓解这两个问题,我们采用了集成MAP的框架,并引入了亚像素上下文增强(SCE),以利用C5上更大的接受域来挖掘更多的上下文信息。SCE的核心思想是融合大域局部信息和全局上下文信息,以生成更具区分性的特征。假设输入特征图C5的形状为2w×2h×8C,输出积分图为4w×4h×C.C为256。我们通过如图所示的并行路径执行三级上下文特征。98a7ece0-0a25-4744-83b8-ac45cee243b3-image.png
      首先,我们在C5上应用3×3卷积来提取局部信息。同时,将通道维数变换为亚像素上采样。然后采用亚像素卷积形成双尺度上采样,类似于SSF。其次,通过3 × 3最大池化将输入特征下采样到 w × h,经过1 × 1卷积层扩展信道尺寸。然后采用4 × 上采样的亚像素卷积算法。该通道为较大的感受野获得丰富的语境信息。
      第三,我们在C5上执行全局平均池化,以获取全局上下文信息。然后,将1×1×8C的全局特征压缩到1×1×C,并放大到4w×4h的大小。第一条通道和第三条通道分别提取局部和全局上下文信息。
      最后,将生成的三个特征图按映射的方式累加成图 I。SCE通过扩展三个尺度的特征表征,有效地扩大了C5的接受域,细化了 I 的表征能力。因此,FPN充分利用了最高层特征中的语义信息。为简单起见,删除了F5和P5的节点。

      posted in CV领域
      153****2211
      153****2211
    • 【2021中国华录杯·数据湖算法大赛】火热报名中,丰厚大赛奖金等你来拿!

      -----------------------------------------------

      !
      【比赛赛题】本届比赛均为定向算法赛:
      共设置
      1.语音识别
      2.特殊车辆识别
      3.自然语言处理
      4.图像摘要生成及应急五大赛道

      【大赛奖金】每个赛道15支获奖团队,奖金共计69.5万,冠军可获得“3w现金+1.8w华录未来科技园入驻券”。除赛事奖金外,优秀参赛团队还将获得入驻“易华录科技企业孵化器”机会;晋级决赛选手将获得华录集团旗下企业“人才录用直通车”资格!

      【比赛时间】2021.5.21—2021.10.17

      【报名地址】https://sourl.cn/BRBgZT

      posted in 竞赛赞助
      153****2211
      153****2211
    • 极市项目|加油站巡检算法需求(第二弹)

      ⏩ 项目一:加油站巡检算法需求⛽

      ▶ 一、背景描述
      🛢 1、项目背景:加油站客户有巡检需求,需要识别在‘加油现场’巡检业务中的四个部分内容用于管理端二次确认,分别涵盖:灭火器箱、防火毯、灭火器、灭火器压力值情况检查。

      2、项目算法要达到的目的:

      • 识别特定位置是否有正确放置灭火器箱/防火毯;

      • 灭火器箱内是否有正确放置两台灭火器;

      • 灭火器压力表指针是否指向表盘绿色正常区域;
        共计四种情况检查。(注意本项目当前能够提供的数据量较少,初步只要求demo制作)

      ▶ 二、目标描述
      1、需求边界定义:
      🔽 灭火器箱与防火毯检查——识别规定位置是否有放置灭火器箱和防火毯、防火毯是否有正确放置在灭火器箱上。
      ⏬ ⏬ ⏬ ⏬ ⏬ ⏬ ⏬ ⏬ ⏬ ⏬ ⏬ ⏬ ⏬ ⏬ ⏬ ⏬ ⏬ ⏬ ⏬

      ⏫ ⏫ ⏫ ⏫ ⏫ ⏫ ⏫ ⏫ ⏫ ⏫ ⏫ ⏫ ⏫ ⏫ ⏫ ⏫ ⏫ ⏫ ⏫

      🔽防火毯检查——规定位置是否摆放防火毯

      ⏬ ⏬ ⏬ ⏬ ⏬ ⏬ ⏬

      ⏫ ⏫ ⏫ ⏫ ⏫ ⏫ ⏫

      🔽灭火器检查——识别灭火器箱内是否有正确放置灭火器

      ⏬ ⏬ ⏬ ⏬ ⏬ ⏬ ⏬

      ⏫ ⏫ ⏫ ⏫ ⏫ ⏫ ⏫

      🔽灭火器压力值检查——识别灭火器压力表上的指针所在颜色区域(红、黄、绿)

      ⏬ ⏬ ⏬ ⏬ ⏬ ⏬

      ⏫ ⏫ ⏫ ⏫ ⏫ ⏫

      1、算法报警的业务逻辑:
      巡检流程为:巡检人员在‘加油现场’巡检记录的同时,通过专用防爆手持设备对对应巡检点位进行拍摄,将拍摄结果上传后:

      1)当识别到对应物品正确放置,则不报警,或反馈正常

      2)当识别到对应物品未正确放置(可能是灭火器箱内只有一个灭火器、防火毯不在灭火器箱上等)或未识别到对应物品,则产生报警。

      2、识别场景:加油站场景、禁烟禁火的仓储场景等

      3、识别对象:灭火器箱、防火毯、灭火器、灭火器压力表盘指针

      环境: 室外白天/夜间光照良好的情况。

      ▶ 三、算法内容

      1、算法输入:图片
      2、算法输入设备:专用防爆手机
      3、算法输出:图片/callback
      4、算法最大/最小识别像素:无限制
      5、算法实时性:可巡检实时识别或巡检后批量识别
      6、算法部署:云部署

      ▶ 四、数据来源:

      提供真实场景数据集

      ▶ 五、软硬件要求

      1、软件要求

      a.运行在X86架构(酷睿i系列芯片和至强系列芯片,显卡支持RTX、GTX、Tesla)

      b.需求为Linux SDK(C++实现)

      c.算法部署:支持私有化部署

      2、硬件要求

      a.英伟达显卡(默认)

      b.其他类型显卡(若非英伟达显卡,在此处填写客户提出的显卡要求)

      3、开发规范:https://github.com/ExtremeMart/dev-docs

      4、开发周期:25天

      🌐

      报名网址:极市平台

      📝 🌞

      posted in 校招社招
      153****2211
      153****2211
    • RE: 【6.18-6.24签到抽奖-已结束】2张200元代金券,请po签到截图!


      许愿!!

      posted in 福利活动
      153****2211
      153****2211
    • RE: “Salute!” Object Detection 20年 前三章小结

      @153-2211

      posted in CV领域
      153****2211
      153****2211
    • 博士申请 | 香港科技大学(广州)王林助理教授招收计算机视觉博士生


      香港科技大学是世界发展最快的大学之一,在 2021 年,科大位列 QS 世界大学排名第 34 位和泰晤士高等教育世界年轻大学排名第 3 位。在 2022 年 9 月,作为港科大新启用的校园,广州校园将不会重叠清水湾校园已提供的学科,而将重点发展交叉学科,以相互补足。广州校园的老师一部分由清水湾转聘过来,另一部分为新入职教授。这两个校区地位平等,学位证、学生待遇均保持一致。同时,与香港校区相比,广州校园政策灵活(提供双导师制、双博士学位制度),交通便利,生活舒适。目前广州校园已招收三届学生并在香港校园培养,2022 fall 是第四批招生。广州校园将开启港科大的新篇章,探索新的教育模式。

      实验室主页:
      https://addisonwang2013.github.io/vlislab/

      Addison Lin Wang (王林) 博士将于今年 12 月份加入香港科技大学广州校园,担任人工智能学域助理教授。王老师毕业于韩国科学技术院 (KAIST)(获得院级最佳博士毕业生奖)。他现在在 KAIST 视觉智能实验室从事博后研究。他的主攻方向是基于新型相机的视觉(event camera, infrared camera, 360 camera, etc.)。这些研究目前在内地及香港处于研究的最前沿,旨在打破传统视觉的局限性。他也同时研究针对视觉智能系统(自动驾驶,机器人)的深度学习方法,例如知识蒸馏,半监督,自监督学习。王老师同时也在研究基于视觉的增强现实/Metaverse 方法并致力于用于视觉智能系统。

      王老师在近三年半内以第一作者在 TPAMI (3 篇), CVPR, ICCV, TIP, AAAI, PR, RAL, ICRA 等顶尖视觉和机器人会议期刊发表共超过 10 篇文章。他与很多研究机构、人员都有广泛的合作。他曾获得 CVPR 最佳审稿人并且受邀参加 CVPR 博士论坛,同时受邀在三星,Naver Labs 等公司做技术报告。王老师的研究现在正在于华为,中兴等企业建立合作,旨在于把新型视觉,计算成像,以及 metaverse 等的研究用于实际问题中。

      导师主页:
      https://addisonwang2013.github.io/vlislab/linwang.html

      王老师是一个非常开放的人,王老师有在三个系 (机械,工业工程,计算机)学习研究的经验,非常熟悉多学科融合以及研究。他对如何突破科研瓶颈,创新,以及论文写作都有一定的见解。王老师的实验室一切以 co-work 的形式相互学习。王老师非常尊重学生的想法。王老师旨在于帮助学生成长收获,期待学生积极思考,与老师积极沟通。王老师的实验室同时也会有家的温暖。王老师会与学生成为探索新知识的朋友,用爱与包容去打造一个好的研究团队。知识的探索虽然难,但是爱与共同进步的力量可以克服研究中的一起困难。实验室以英语为主并以 seminar 的形式锻炼学生在国际舞台的发表演讲能力,帮助学生创建更好的 international mind.

      王老师现在与华为,中兴等公司打造合作的机会,学生在读期间会有很多实习机会。实验室也会提供去 Facebook AI/Reality Labs, Google, Adobe Research 等实习的机会。王老师的研究与 Facebook Reality Labs 有很多相关,有兴趣的学生可以帮忙介绍。港科大广州校园也会为学生提供去其他大学去交流访学的机会。

      除此之外,港科大广州校园采用双导师制、双博士学位制,如果你对也此感兴趣,欢迎提前联系,王老师会帮忙指导撰写研究计划以及联系第二位导师。王老师与 AI 学域熊辉教授等保持深度合作,同时与山东大学,KAIST,清华深圳院都有密切的合作。录取学生也可以选择感兴趣的教授作为第二导师进行联合指导。

      研究方向

      1. 基于新型相机的视觉(event camera, infrared camera, 360 camera, etc.);
      2. 低端视觉于计算成像用于相机性能改善(尤其是 HDR imaging, motion beblurring, SR 等);
      3. night-scene vision(用于智能系统);
      4. 3D 视觉 (depth estimation, optical flow estimation)以及 pixel-level 语义分割问题(智能系统方向);
      5. 用于视觉智能的深度学习方法(Transfer learning, semi-/self-supervised learning, GANs, few-shot learning);
      6. 对抗攻击与视觉算法的 robustness(智能系统方向);
      7. 基于是视觉的增强现实、Metaverse 研究(智能系统方向)。

      招生要求

      1. 对于新型视觉问题(以及相关深度学习问题)、基于视觉的交互,以及智能系统有想探索的好奇心。这些研究现在还处于发展期,未来前景可期;
      2. 有一定的编程基础,有主动去探索新知识的积极性;
      3. 敢于挑战自己,有爱心,有忍耐力,愿意包容并积极合作;
      4. 研究经验或者论文的要求 (至少满足一项):
        有一定的研究经验和项目经验

      作为主要作者在顶级会议或者期刊发表过论文

      在公司实习经验的学生

      1. 对于 undergraduate student、或者缺少的研究经验的同学,只要积极向学,敢于探索,也欢迎以 Research Intern 的形式加入我们研究团队;

      2. 有好的英语发表于写作基础(至少满足港科大英语招生要求)。
        薪资待遇

      3. 博士生会提供丰厚的待遇, 具体细节可以咨询王老师;

      4. 会为 Research Intern 提供充足的 funding,对于想为读博士预备的同学,也可以先考虑加入 Research Intern,研究成果可以与博士毕业联系;

      5. Research Assistant 也会提供丰厚的薪资。
        申请方式

      请发送简历,研究计划以及代表论文(若有)给王老师:addisonwang2013@gmail.com

      posted in 校招社招
      153****2211
      153****2211
    • RE: 【有奖话题NO.9】这一句话,就让炼丹师破防了?

      不会跑代码…
      你不是学计算机?

      posted in 有奖话题
      153****2211
      153****2211
    • RE: 【2张100元代金券】晒出你的昵称吧~~

      梭哈梭哈,重仓蔡神。(不构成任何有效建议😀 )

      posted in 聊一会吧
      153****2211
      153****2211

    Latest posts made by 153****2211

    • 博士申请 | 美国明尼苏达大学葛畅教授招收隐私数据管理方向全奖博士/硕士/博后/访问学者

      明尼苏达大学(University of Minnesota)成立于 1851 年,共有 5 个校区,旗舰校区位于明尼苏达州双子城(Twin Cities)。明尼苏达大学双子城校区有公立常春藤大学之称,拥有 26 位诺贝尔奖得主。其 17 所学院提供 300 多个专业,是美国最综合的大学之一。

      理工学院(College of Science and Engineering)成立于 1935 年,拥有 13 个系。其中,计算机科学与工程系(Department of Computer Science and Engineering)学术实力雄厚,2020 年 Guide2Research 将计算机科学与工程系列为全美排行榜第 26 名,全球第 40 名。

      c9a7dabf-0830-4aef-9270-69800781c8df-图片.png

      导师简介

      葛畅,2022 年 6 月于加拿大滑铁卢大学计算机学院取得博士学位,将于 2022 年秋季学期加入明尼苏达大学双子城校区计算机科学与工程系任助理教授。研究方向是数据管理和大数据系统,特别是支持在有隐私和脏数据的情况下进行大规模数据分析的算法和系统。科研成果已被实际运用到苹果、微软、IBM 和 SAP 等公司的产品和服务中。

      个人主页:

      http://umn.edu/~cge

      招生情况

      实验室常年招收优秀学生。从当前到 2023 年底间计划招收数名全奖博士生、硕士生、博后、助研和访问学者。

      基本要求

      1. 计算机科学相关专业,有好的数学和编程能力,对数据库、数据隐私、数据安全和机器学习有一些基础;

      2. 有强烈的自我驱动力和抗挫抗压的心理素质;

      3. 不盲从,不浮躁,能够脚踏实地地阅读和动手。

      申请方式

      有意者请将如下信息送至 cge AT umn.edu,并在邮件主题中注明 [Position]Application[YourName]:

      1. 申请材料,包括但不限于个人介绍、简历、专业成绩单、标准化英语成绩、科研经历和成果;

      2. 开始时间;

      3. 你的期待和毕业后的打算。

      posted in 校招社招
      153****2211
      153****2211
    • 科研实习 | 北京大学万小军老师课题组招收NLP方向实习生和访问学生

      北京大学语言计算与互联网挖掘实验室隶属于北京大学王选计算机研究所,负责人为万小军老师。实验室研究方向为自然语言处理,主要研究内容包括(但不限于):篇章解析与语义分析、自动文摘与文本生成、文本复述与文本简化、视频图像描述生成、文本质量评估与文本纠错、机器翻译等。实验室独立发表的论文曾荣获ACL 2017 Outstanding Paper Award与IJCAI 2018 Distinguished Paper Award,研制推出小明、小南、小柯等多款智能写作机器人,应用于多家媒体单位。实验室支持自由探索,追求团队共同发展与进步。

      5c4d096a-a74b-4081-9cba-f37f29e3768b-图片.png

      导师简介

      万小军教授,北京大学王选计算机研究所研究员、博士生导师,语言计算与互联网挖掘研究室负责人,在北京大学获得学士、硕士与博士学位。研究方向为自然语言处理与文本挖掘,研究兴趣包括自动文摘、文本生成、情感分析、语义分析、多模态与多语言NLP等。曾担任计算语言学顶级国际期刊Computational Linguistics编委、国际会议EMNLP-IJCNLP 2019程序委员会主席,现任CCF-NLP专委会秘书长、TACL执行编辑、NLE编委、JCST编委,10多次担任相关领域重要国际会议领域主席,包括ACL、NAACL、EMNLP、EACL,AACL等。荣获ACL2017杰出论文奖、IJCAI 2018杰出论文奖、2017年吴文俊人工智能技术发明奖、CCF NLPCC青年新锐奖等奖励。研制推出了多款AI写作机器人,如小明、小南、小柯等,应用于多家媒体单位。

      个人主页:

      https://wanxiaojun.github.io/

      招生要求

      实验室现招收大二大三本科实习生(最好有计划在国内或国外攻读博士)与硕博士访问学生,希望你对 NLP 方向有研究兴趣(即有自驱力),且有比较充分的课外时间和精力,具备较好的编程能力。

      申请方式

      请将你的个人简历和成绩单(仅本科生需提供成绩单)发送至万老师邮箱:wanxiaojun@pku.edu.cn

      posted in 校招社招
      153****2211
      153****2211
    • 博士申请 | 香港城市大学计算机学院徐伟涛老师组招收人工智能全奖博士生

      香港城市大学是一所坐落于香港九龙塘的公立研究型大学。2023 年 QS 世界大学排名第 54 名,QS 建校未满 50 年最佳大学第 4 名,ARUW 工程/技术/计算机科学香港地区第 1 名,泰晤士全球最国际化大学第 1 名。校园地处九龙塘商业区,港铁九龙塘站,背靠狮子山,眺望九龙半岛和维多利亚港。

      db2064b3-d0b1-4037-b628-9a9ac774b8d4-图片.png

      导师简介

      徐伟涛,香港城市大学计算机学院助理教授,毕业于澳大利亚昆士兰大学。在国内外知名期刊、会议发表论文五十余篇,曾获得 2016 Google PhD Fellowship(全球仅 50 人获得),2021 ACM SIGBED China 新星奖(全国仅 2 人获得)。

      个人主页:

      https://www.weitaoxu.com/

      项目简介

      本项目将涉及人工智能、深度学习、可穿戴计算等技术,实现可穿戴设备的智能化,提供全额奖学金(每月 17500 港币)。有兴趣的同学请参考该页面信息:

      https://www.weitaoxu.com/recruitment/

      申请条件

      1. 具有下面三个专业背景之一:计算机 (computer science),通信 (communication),电子工程 (electronic engineering);

      2. 理论基础扎实,愿意吃苦耐劳,对科研感兴趣;

      3. 有电路设计、嵌入式设备、无线模块开发经验优先;熟悉编程、动手能力强优先;有过研究经验,发表过论文的优先;

      4. 托福 79 分以上或者雅 思6.5(学校要求),具有良好的英语书面和口头表达能力。

      申请方式

      请感兴趣的同学将简历和成绩单发送到邮箱 weitaoxu@cityu.edu.hk

      posted in 校招社招
      153****2211
      153****2211
    • 腾讯AI Lab视觉计算中心实习生招聘

      团队介绍

      腾讯 AI Lab 是腾讯的企业级AI实验室,于2016年4月在深圳成立,团队由100余位来自世界知名院校的科学家,以及 300 多位经验丰富的应用工程师组成,并与世界顶级院校与机构合作,共同打造产学研用一体的 AI 生态。 腾讯 AI lab视觉计算中心现由腾讯杰出科学家王珏老师 ( https://juewang725.github.io/) 担任总监,致力于探索与研究计算机视觉方向前沿问题,结合未来实际应用场景,提供全面的技术解决方案。
      cad788d7-db83-4a69-b689-1d6f4e220403-图片.png

      招聘需求

      腾讯 AI Lab视觉计算中心现招聘 换脸/ 图像和视频生成/ 视频理解/ 可信AI 方向实习生。实习生将参与部门前沿研究项目,撰写并发表原创性论文,并结合腾讯内部业务场景,运用视觉技术解决实际业务问题。

      方向一:内容生成方向,对于换脸、图像及视频生成方向有一定了解,熟悉常用计算机视觉算法

      方向二:视频理解方向,对目标检测、图像分类,少样本学习等方向有一定了解,熟悉常用视频理解算法

      方向三:可信AI方向,对对抗机器学习,公平性,可解释性,后门攻击和防御等方向有一定了解,熟悉常用攻防算法

      技能要求

      对常用深度学习框架和理论有深入的理解和丰富的经验,熟悉深度学习常用 算法 和工具 (如 tensorflow / pytorch),能够利用或复现现有 state-of-the-art 模型进行训练和测试,具有较强的编程能力,能承担项目子模块的开发工作;
      具备一定的科研能力,能够承担科研推进工作,撰写相关领域学术论文;
      在顶级会议上,如CVPR、ICCV、ECCV等,发表过文章者优先,有开源项目经历、计算机编程比赛经验者优先;
      工作地点优先深圳,能全职实习6个月以上者优先

      直通车

      有兴趣的同学请将简历同时发送至以下邮箱:paidaxingli@tencent.com / norriszhang@tencent.com / yanbofan@tencent.com
      并在标题加注"AIoffer推荐+AI Lab计算机视觉实习生申请-{学校}-{实习X个月}"。

      posted in 校招社招
      153****2211
      153****2211
    • 博士申请 | 美国乔治梅森大学竺子崴老师招收推荐系统方向全奖博士生

      乔治·梅森大学在计算机领域享有世界级声誉,在 csrankings 上排名全美 45,U.S. news 排名 63。它是美国著名的一级科研型大学,也是近十年来在美国迅速崛起的一所主要的大学。学校正式成立于 1972 年,前身是弗吉尼亚大学的附属学院,独立后锐意拓展,在短短的 50 年间就成为了弗吉尼亚州最大的公立研究型大学。校园位于弗吉尼亚州的费尔法克斯市(Fairfax),距离美国首都华盛顿特区(DC)仅半个小时车程,是一个治安非常好的郊外社区,气候温和,四季分明。靠近 DC 意味着课余的生活也能变得丰富多彩。Fairfax 经济活跃,有许多知名高科技企业、专业服务机构和政府部门。

      优越的地理位置使学生有诸多进入世界 500 强企业实习和工作的机会。特别是亚马逊已在北弗吉尼亚州的阿灵顿建立了第二个总部(Amazon HQ2),为计算机专业学生带来大量实习和工作的机会。同时,随这亚马逊第二总部的到来,弗吉尼亚联州宣布了一项多年计划以投资于计算机学位课程的发展。GMU 致力于加速该发展计划,并扩展其计算和高科技领域。由此可预见在未来几年,GMU 将在计算及相关领域持续迅速提升其领先地位。

      aa18d639-40c8-414f-9d5d-7499d48c3ac7-图片.png

      导师简介

      Ziwei Zhu(竺子崴),将于 2022 秋季加入乔治梅森大学计算机系,担任助理教授。他于 2016 年本科毕业于武汉大学计算机学院,2022 年博士毕业于德州农工大学(Texas A&M University)。研究领域主要为信息检索,数据挖掘,和机器学习。

      Ziwei 的研究致力于创造有社会责任感的人工智能算法与系统,相关课题包括但不限于推荐系统和排序系统的公平性问题和各种偏差问题(例如曝光偏差,流行性偏差,用户选择偏差等),机器学习算法的公平性,以及自然语言处理中的公平与偏见问题。同时,他也发表过多篇有关深度学习算法在推荐系统和排序系统里的应用的论文,并将继续相关问题的研究。在博士期间,Ziwei 在 KDD,SIGIR,WSDM,WWW 等国际顶级学术会议发表过多篇一作论文(一作和合作论文一共发表 20 余篇)。并且他曾多次在这些顶级会议担任程序委员会委员,也曾为多个期刊担任评审员。除此之外,Ziwei 曾在 Comcast Applied AI Lab 和 Netflix Research 实习,并且现在仍保持紧密的联系。Ziwei 会倾尽全力运用他的科研经验和他的在业界学界的资源帮助学生成功。

      个人主页:

      https://zziwei.github.io/

      研究方向(包括但不限于)

      1. 推荐/排序系统的公平性与偏差问题(fairness and bias in recommender/learning-to-rank systems);

      2. 基于深度学习的推荐系统/排序系统(deep learning for recommender/learning-to-rank systems);

      3. 有社会责任感的人工智能(responsible AI, AI for social good)。

      招生计划

      计划于 2023 Spring 和 2023 Fall 招收多名博士生,并提供全额奖学金(RA/TA)。

      招生要求

      1. 有较强数学基础和编程能力;

      2. 对科研有极大的兴趣与热情;

      3. 有良好的英文沟通和写作能力;

      4. 有相关科研经历的申请者会被优先考虑。

      申请方式

      1. 发邮件到 zhuziwei@tamu.edu;

      2. 邮件题目请标明 [Prospective PhD Student];

      3. 邮件中标明计划入学时间(2023 Spring 或 2023 Fall);

      4. 请附上你的 CV,成绩单,一段科研经历和兴趣的介绍,以及写作样本(可以是发表的论文或者未发表的研究报告)。

      posted in 校招社招
      153****2211
      153****2211
    • 北京内推 | 微软STCA招聘NLP/IR/DL方向研究型实习生(可远程)

      微软亚洲互联网工程院(STCA)Semantics and Knowledge 组致力于 NLP 基础技术的研究和积累,在预训练语言模型、信息检索、智能问答、语言生成模型、小样本学习、人机对话等方向上有深厚的技术积累。近三年来组内已在 NeurIPS/ICLR/ACL/KDD/EMNLP/SIGIR/AAAI/IJCAI/WSDM 等顶会上发表过数十篇论文。现诚招研究型实习生,主要任务为前沿 NLP/IR/DL 技术研究和探索,以发表优质论文为目标,也可输出至微软相关产品。

      79d63478-5e92-4446-ab29-d88ce60dd0b3-图片.png

      研究型实习生
      坐标:北京市海淀区丹棱街 5 号微软大厦 [可远程]

      岗位职责

      主要任务为前沿 NLP/IR/DL 技术研究和探索,以发表优质论文为目标,也可输出至微软相关产品,研究方向包括但不限于:预训练技术、知识蒸馏、文本生成、信息检索、智能问答等。

      岗位要求

      1. 具有计算机、电子、数学等相关专业背景的硕士或博士生;

      2. 具备一定的 NLP/ML/DL 研究基础知识,能够独立实现模型;

      3. 在 NLP/AI/IR/CV/ML 等相关会议或者期刊发表过论文优先;

      4. 实习 4 个月以上优先。

      投递方式

      📪 chotao@microsoft.com

      邮件及简历命名格式:

      姓名-学校-年级-实习时间-AI求职

      posted in 校招社招
      153****2211
      153****2211
    • 博后招募 | 西湖大学机器智能实验室招聘博士后/助理研究员/科研助理

      西湖大学机器智能实验室 (Machine Intelligence Laboratory, MiLAB) 专注于强化学习、深度学习和机器人智能化应用等领域的前沿研究,实验室 PI 王东林博士担任国家科技创新 2030 重大项目负责人(首席科学家)。实验室成立以来发表 ICLR、NeurIPS、AAAI、IJCAI、KDD 等论文 50 多篇,申请专利 10 多项。实验室 2022 年起牵头科技创新 2030 重大项目“面向人工通用智能的类脑强化学习”,因项目需要招聘若干名研发人员。

      实验室主页:
      https://milab.westlake.edu.cn/

      c7db9656-ee55-405f-b7bd-ea7d767beb72-图片.png

      博士后
      招聘方向I:类脑深度神经网络(若干名)

      岗位职责

      1. 从事类脑智能方面的研究:类脑神经网络、类脑强化网络等;

      2. 研究适应脉冲神经元兴奋和抑制平衡的网络模型结构,优化基于突触随时间变化可塑性的深度脉冲神经网络,为类脑强化的研究提供基础网络结构支撑。

      岗位要求

      1. 人工智能、生物信息学、计算神经生物学、生物医学工程等相关方向,具备神经生物学或深度学习知识背景;

      2. 发表过顶刊或 AI 顶会论文者优先;

      3. 对研究工作充满热情,具备良好的团队合作精神;

      4. 符合西湖大学博士后管理相关规定,且年龄不超过 35 周岁,已取得或即将取得博士学位。

      招聘方向II:深度强化学习(若干名)

      岗位职责

      1. 研究深度强化学习算法,包括但不限于鲁棒强化学习,持续学习,人在回路强化学习,多智能体强化学习,离线强化学习等方向;

      2. 从事小样本学习,元学习,迁移学习或领域泛化方面的前沿研究。

      岗位要求

      1. 计算机科学,人工智能,机器学习及信息相关专业,具备深度学习知识背景,具备较强的编程实现能力;

      2. 发表过顶刊或 AI 顶会论文者优先;

      3. 对研究工作充满热情,具备良好的团队合作精神;

      4. 符合西湖大学博士后管理相关规定,且年龄不超过 35 周岁,已取得或即将取得博士学位。

      招聘方向III:面向无人车或机器人的深度强化学习应用(若干名)

      岗位职责

      1. 从事面向智能无人车的类脑强化学习研究及应用;

      2. 从事面向四足机器人的类脑强化学习研究及应用。

      岗位要求

      1. 计算机科学,人工智能,机器学习,控制及自动化相关专业,具备较强的编程实现能力;

      2. 有无人车研发经历或足式机器人研发经历者优先,发表过顶刊或 AI 顶会论文者优先;

      3. 对研究工作充满热情,具备良好的团队合作精神;

      4. 符合西湖大学博士后管理相关规定,且年龄不超过 35 周岁,已取得或即将取得博士学位。

      科研助理、助理研究员
      招聘方向I:类脑深度神经网络(若干名)

      岗位职责

      1. 从事类脑智能方面的研究:类脑神经网络、类脑强化学习等;

      2. 研究适应脉冲神经元兴奋和抑制平衡的网络模型结构,优化基于突触随时间变化可塑性的深度脉冲神经网络,为类脑强化的研究提供基础网络结构支撑。

      岗位要求

      1. 在人工智能、生物信息学、计算神经生物学、生物医学工程等相关方向,硕士或优秀本科生(科研助理),博士(助理研究员);

      2. 具备神经生物学、强化学习或深度学习知识背景,对相关的算法研究有浓厚兴趣;

      3. 有论文发表者优先;

      4. 对研究工作充满热情,具备良好的团队合作精神。

      招聘方向II:深度强化学习(若干名)

      岗位职责

      1. 研究深度强化学习算法,包括但不限于鲁棒强化学习,持续学习,人在回路强化学习,多智能体强化学习,离线强化学习等方向;

      2. 从事小样本学习,元学习,迁移学习或领域泛化方面的前沿研究。

      岗位要求

      1. 计算机科学,人工智能,机器学习及信息相关专业,硕士或优秀本科生(科研助理),博士(助理研究员);

      2. 具备深度学习知识背景,具备较强的编程实现能力;

      3. 有论文发表者优先;

      4. 对研究工作充满热情,具备良好的团队合作精神。

      招聘方向III:面向无人车或机器人的深度强化学习应用(若干名)

      岗位职责

      1. 从事面向智能无人车的类脑强化学习研究及应用;

      2. 从事面向四足机器人的类脑强化学习研究及应用。

      岗位要求

      1. 计算机科学,人工智能,机器学习,控制及自动化等专业,硕士或优秀本科生(科研助理),博士(助理研究员);

      2. 具备较强的编程实现能力;

      3. 有无人车研发经历或足式机器人研发经历者优先;

      4. 对研究工作充满热情,具备良好的团队合作精神。

      岗位待遇

      1. 根据西湖大学相关规定以及申请人工作能力,实验室将提供在国内外具有竞争力的薪酬待遇以及科研条件,享受五险一金及西湖大学的相关福利。具体待遇面议。

      2. 博士后:根据个人科研工作能力和博士后有关规定从优发放。课题组将提供稳定的工作环境与一流的研究平台,协助申报博士后相关项目,并根据兴趣与需求支持个人的职业发展。对获得中国博士后科学基金资助和省级博士后科研项目资助的,杭州市给予 1:1 配套资助。出站留杭工作的,杭州市给予 40 万元生活补贴。符合条件的人员能够申请杭州市高层次人才等相关政策待遇。

      应聘方式

      1. 报名时间:长期招聘,有意应聘者请从速投递应聘材料;

      2. 申请材料:请将以下材料合并为一个 PDF 文件,发送至 wangdonglin@westlake.edu.cn 和 mi_lab@westlake.edu.cn。邮件标题请标明“应聘岗位+本人姓名+AI求职”。

      个人简历:包括个人学习、工作经历等;

      其他申请人认为必要的材料。

      对于符合要求并通过初审者,将会通知安排面试,三个月内没有收到面试通知者可自行放弃等待。因接待能力有限,谢绝自行来访。

      posted in 校招社招
      153****2211
      153****2211
    • 博士申请 | 新加坡国立大学Luu Anh Tuan老师组招收NLP方向全奖博士生

      新加坡国立大学(National University of Singapore),简称国大(NUS),是一所位于新加坡的公立研究型大学,在国际框架下推展高深优质的教育与科研之际,突出展现亚洲视角和优势。新加坡国立大学世界排名第 11,亚洲排名第一(QS World University Rankings 2022)

      fd35187e-a6a2-442a-99a7-18ff77f8ecf7-图片.png

      导师简介

      Luu Anh Tuan is an Assistant Professor at School of Computer Science and Engineering, Nanyang Technological University. Before that, he was a postdoctoral fellow at MIT CSAIL and a member of the Natural Language Processing group under the supervision of Prof. Regina Barzilay from 2018 to 2020. He obtained Ph.D. degree in computer engineering from Nanyang Technological University in 2016 under the supervision of Prof. Siu Cheung Hui (NTU) and Prof. See Kiong Ng (NUS). From 2016 to 2018, he was a research scientist at Institute for Infocomm Research, Singapore in the Natural Language Processing group of Dr. Jian Su.

      His research interests lie in the intersection of artificial intelligence and natural language processing with the focus on applications of natural language understanding, semantics, question & answering, information extraction and knowledge construction, sentiment analysis, and recommendation systems.

      个人主页:

      https://tuanluu.github.io/

      招生信息

      I am having a PhD scholarship in National University of Singapore, woking in the topics of Knowledge Graph construction, Question Answering, and Recommendation Systems.

      The information of the scholarship can be found here:
      https://isepnusedusg/nus-phd-data-science/

      招生要求

      1. The students should have a Bachelor/Master degree with good academic score, have previous research experience in Natural Language Processing and Deep Learning (having publications in top tier conferences such as ACL, EMNLP, NAACL, NeurIPS, ICLR, ICML or AAAI will be a plus).

      2. If the bachelor degree is not in English environment, the student should have English/IELTS score and a minimum GRE score of 320.

      申请方式

      Interesting applications can the resume to me at anhtuan.luu@ntu.edu.sg. Please note that the deadline for submitting the application to NUS portal is 31 July 2022, so please send me the CV as soon as possible. Only shortlisted candidates will be notified for interview.

      posted in 校招社招
      153****2211
      153****2211
    • 北京内推 | 蔚来汽车自动驾驶部门招聘感知研发实习生

      让⻋成为安全、⾃由的移动⽣活空间是我们的愿景;NIO Autonomous Driving 蔚来自动驾驶,从地图定位到感知算法,从底层系统到控制策略,拥有全栈⾃动驾驶技术能⼒;逐步实现⾼速、城区、泊⻋和换电场景的全覆盖,解放时间,减少事故,带来安全放松的点到点⾃动驾驶体验。
      5853416e-c750-4184-b47d-af3464625fb9-图片.png

      感知研发实习生
      坐标:北京海淀区融科大厦

      岗位职责

      1. 从事 2D/3D 目标检测、tracking、分类识别等方向研究和落地;

      2. 参与研发自动驾驶感知模型算法及优化。结合实际业务场景,优化深度学习模型训练(training)性能和推理(inference)性能;

      3. 与自动驾驶专家工程师合作并积累自动驾驶研发经验,解决实际业务中遇到的各种问题;

      4. 可参与模型研发的完整链路,包括数据相关工作、模型设计、优化、部署;训练系统优化等。

      岗位要求

      1. 主要研究方向:2D/3D 目标检测、tracking、分类等;

      2. 有 3D 视觉相关经历优先;

      3. 具备坚实的 Python / C++ 编程基础,对自动驾驶前沿算法有一定的了解;

      4. 熟悉机器学习/深度学习概念并有扎实的数学基础;熟悉 Pytorch / TensorFlow 框架;

      5. 发表过顶会/顶级期刊者优先。

      福利待遇

      450/天 + 绩效 bonus

      投递方式

      📪 duke.wang@nio.com

      📪 zhe.wang2@nio.com

      邮件和简历命名格式:

      感知研发实习-姓名-可实习时长-毕业年份

      posted in 校招社招
      153****2211
      153****2211
    • 深圳内推 | 粤港澳大湾区数字经济研究院招聘NLP算法研究员/实习生

      粤港澳大湾区数字经济研究院(简称“IDEA”研究院)由前微软公司全球执行副总裁、美国和英国工程院外籍院士沈向洋博士创建并担任理事长。作为一家面向AI技术和数字经济产业国际前沿研究机构,IDEA 致力于与 MSR、DeepMind、OpenAl 等同行者一起探索人类 AI 的前沿技术、拓展产业边界,让越来越多的人从新技术的发展中获益。

      IDEA 研究院认知计算与自然语言研究中心(CCNL,Cognitive Computing and Natural Languge),致力于研究预训练大模型为代表的新一代认知与自然语言前沿技术。通过开源模型、构建平台和发展生态,重塑自然语言算法的基础设施,打造认知智能的技术新范式,推动中文自然语言领域的发展。最新研究成果:中文自然语言权威榜单 FewCLUE/ZeroCLUE 双料第一名。发布封神榜开源计划,多个主流预训练模型,几十亿参数规模。

      b0902dfe-f20d-4d2a-b3d1-b1446d118193-图片.png

      NLP研究实习生
      坐标:深圳福田
      部门:IDEA-认知计算与自然语言研究中心

      岗位职责

      1. 研究自然语言预训练大模型的结构和训练算法,以及针对大模型的零样本/小样本学习、知识蒸馏、模型压缩等算法;

      2. 研究基于预训练大模型的各种 NLP 任务算法,包括文本分类、文本生成、意图识别、文本相似度计算、信息抽取、实体识别、情感分析、阅读理解、问答、对话等;

      3. 产出学术研究成果,在领域一流学术会议发表论文,生产开源模型和代码;

      4. 参与研究中心的重要项目。

      岗位要求

      1. 自然语言处理、深度学习或机器学习相关专业的在校硕士和博士研究生,以及优秀本科生;

      2. 有机器学习、深度学习、NLP 等领域的研究经验,有学术会议论文发表者优先;

      3. 聪明、积极、有技术追求。

      NLP算法研究员

      坐标:深圳福田
      部门:IDEA-认知计算与自然语言研究中心

      岗位职责

      1. 研究自然语言预训练大模型的结构和训练算法,以及针对大模型的零样本/小样本学习、知识蒸馏、模型压缩等算法;

      2. 研究基于预训练大模型的各种 NLP 任务算法,包括文本分类、文本生成、意图识别、文本相似度计算、信息抽取、实体识别、情感分析、阅读理解、问答、对话等;

      3. 产出学术研究成果,在领域顶级学术会议发表论文,生产有价值和影响力的开源模型和代码;

      4. 解决研究中心重要项目中的重大问题。

      岗位要求

      1. 自然语言处理、深度学习或机器学习相关专业硕士以上学历;

      2. 有机器学习、深度学习、NLP 等领域的研究经验,有良好学术演讲和论文写作能力,有顶级学术会议论文发表者优先;

      3. 具有良好的团队合作精神和高度的责任心。

      NLP算法工程师
      坐标:深圳福田
      部门:IDEA-认知计算与自然语言研究中心

      岗位职责

      1. 负责自然语言处理各个方向的算法研究和落地,包括文本分类、意图识别、文本相似度计算、信息抽取、实体识别、情感分析、对话机器人等;

      2. 研究 NLP 预训练模型,研究基于预训练模型的各种算法,包括小样本学习、知识蒸馏和模型压缩;

      3. 与产品、系统和工程团队合作,探索 NLP 算法在各个场景落地,形成产品,产生实际价值。

      岗位要求

      1. 自然语言处理、深度学习或机器学习相关专业本科、硕士或以上学历;

      2. 熟悉 Machine Learning 或 Deep Leaning 或 NLP 领域的理论基础,掌握统计模型、机器学习相关原理,具有 Machine Learning 或 Deep Leaning 或 NLP 实战经验,参与过相关项目,有海量数据挖掘、文本分类、对话机器人、搜索与推荐系统、知识图谱构建、深度学习研发经验优先;

      3. 熟悉一些开源的算法库或工具,比如:Tensorflow,Pytorch, Kaldi,Hadoop 等,精通 C/C++、java、Python 等至少一门语言;

      4. 具有良好的团队合作精神和高度的责任心。

      投递方式

      📪 menghuamei@idea.edu.cn

      邮件主题标明:姓名-岗位名称-AI求职

      posted in 校招社招
      153****2211
      153****2211