Sidebar

最流行文章标签

  • 教育
  • AI
  • 经济
  • 创业
  • 生活
  • 软件
  • 生活
  • 文化
  • 医药
  • 文化
  • 科技
  • 历史
  • 政治
  • 股票
  • 中医
  • 健康
  • 诗歌
  • 旅游
  • 美食
  • 修养
聊天群秘书
  • 首页
  • 社会
    • 美国政治
    • 中国政治
    • 法律常识
    • 华人自省
  • 经济
    • 金融证券
    • 投资理财
    • 创业交流
    • 商业论证
    • 成功人士
  • 文化
    • 中华文化
    • 欧美文化
    • 历海勾沉
    • 教育育人
    • 推荐书籍
    • 艺术分享
  • 教育
    • 英语
    • 中文
    • 历史
    • 社科
    • 数学
    • 升学
  • 科技
    • 科学动态
    • 科技发展
    • 软件编程
    • 人工智能
  • 生活
    • 婚姻家庭
    • 美味佳肴
    • 美丽家园
    • 旅游观光
    • 生活常识
    • 修身养性
    • 女性成长
    • 健美健身
    • 健康养生
    • 生活创意
  • 论坛
  • 我的收藏

人工智能

一文道尽softmax loss及其变种

  •  Print 
  • Email
1 1 1 1 1 1 1 1 1 1 Rating 0.00 (0 Votes)

作者:龙鹏

来源:https://zhuanlan.zhihu.com/p/34044634

1 softmax loss

softmax loss是我们最熟悉的loss之一,在图像分类和分割任务中都被广泛使用。Softmax loss是由softmax和交叉熵(cross-entropy loss)loss组合而成,所以全称是softmax with cross-entropy loss,在caffe,tensorflow等开源框架的实现中,直接将两者放在一个层中,而不是分开不同层,可以让数值计算更加稳定,因为正指数概率可能会有非常大的值。

Read more: 一文道尽softmax loss及其变种 Add new comment Hits: 917
Details
人工智能
Hits: 917

Named Entity Recognition With Bert

  •  Print 
  • Email
1 1 1 1 1 1 1 1 1 1 Rating 0.00 (0 Votes)

Named Entity Recognition With Bert

 

Named entity recognition series:

  1. Introduction To Named Entity Recognition In Python
  2. Named Entity Recognition With Conditional Random Fields In Python
  3. Guide To Sequence Tagging With Neural Networks In Python
  4. Sequence Tagging With A LSTM-CRF
  5. Enhancing LSTMs With Character Embeddings For Named Entity Recognition
  6. State-Of-The-Art Named Entity Recognition With Residual LSTM And ELMo
  7. Evaluate Sequence Models In Python
  8. Named Entity Recognition with Bert

 

Read more: Named Entity Recognition With Bert Add new comment Hits: 252869
Details
人工智能
Hits: 252869

【译】pytorch教程之加载数据与预处理

  •  Print 
  • Email
1 1 1 1 1 1 1 1 1 1 Rating 0.00 (0 Votes)
WILL
深度学习搬砖者
 

写在前面:本文仅是自己的学习笔记,还有待完善的地方,如有不当,还请指正。【侵删】

解决机器学习问题花费的很多心思都是在准备数据上。为了让你的代码可读性更高,Pytorch提供了很多让加载数据更简单的工具。在这个教程中,我们将看到如何对不一般的数据进行加载和预处理/数据增强。

为了能够运行教程中的例子,请确保你已经安装了下面的包:

  • scikit-image:需要io和transforms
  • pandas:操作csv文件更方便
    Read more: 【译】pytorch教程之加载数据与预处理 Add new comment Hits: 891
Details
人工智能
Hits: 891

[Notes] Neural Language Model with PyTorch

  •  Print 
  • Email
1 1 1 1 1 1 1 1 1 1 Rating 0.00 (0 Votes)

Motivation

I was reading this paper titled “Character-Level Language Modeling with Deeper Self-Attention” by Al-Rfou et al., which describes some ways to use Transformer self-attention models to solve the language modeling problem. One big problem of Transformer models in this setting is that they cannot pass information from one batch to the next, so they have to make predictions based on limited contexts.

It becomes a problem when we have to compare the results with “traditional” RNN-based models, and what Al-Rfou et al. proposed is to use only the outputs at the last position in the sequence from the Transformers when evaluating. If we ignores the first batch, a sequence of length N will requires Nbatches to predict for Transformers, and only (N / M) batches for RNN models (M being the sequence length of a batch).

Read more: [Notes] Neural Language Model with PyTorch Add new comment Hits: 828
Details
人工智能
Hits: 828

2017年AI技术前沿进展与趋势

  •  Print 
  • Email
1 1 1 1 1 1 1 1 1 1 Rating 0.00 (0 Votes)
张俊林
你所不知道的事
 

人工智能最近三年发展得如火如荼,学术界、工业界、投资界各方一起发力,硬件、算法与数据共同发展,不仅仅是大型互联网公司,包括大量创业公司以及传统行业的公司都开始涉足人工智能行业。2017年人工智能行业延续了2016年蓬勃发展的势头,那么在过去的一年里AI行业从技术发展角度有哪些重要进展?未来又有哪些发展趋势?本文从大家比较关注的若干领域作为AI行业代表,来归纳下AI领域一些方向的重要技术进展。

从AlphaGo Zero到Alpha Zero

Read more: 2017年AI技术前沿进展与趋势 Add new comment Hits: 776
Details
人工智能
Hits: 776

More Articles ...

  1. 深度学习中的Normalization模型
  2. 完全解析RNN, Seq2Seq, Attention注意力机制
  3. 放弃幻想,全面拥抱Transformer:自然语言处理三大特征抽取器(CNN/RNN/TF)比较
  4. 深度学习中的注意力模型(2017版)
Page 1 of 13
  • Start
  • Prev
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • Next
  • End

Login Form

  • Forgot your username?
  • Forgot your password?