收录了 python神经网络 频道下的 50 篇内容
Google最近发布了TensorFlow 1.0。该版本具有稳定的Python API,并添加了Java和Go的实验性API。XLA能够大幅度地提升性能。Keras可以通过内置模块与TensorFlow集成。tf.transform、tf.layers、tf.metrics和tf.losses都为平台增添了新特性。
去年,我们发了一篇博文,列举了一些被证明是最有用的Python库。今年,我们扩充了原来的清单,并重新审视之前讨论过的库,重点关注在过去一年内出现的更新。我们对它们进行了分组,排序不分先后,因为真的说不清它们哪个更好。
Rust 是 Mozilla 基金会的一个雄心勃勃的项目,号称是 C 语言和 C++ 的继任者。一直以来,C/C++ 中的一些基本问题都没能得到解决,比如分段错误、手动内存管理、内存泄漏风险和不可预测的编译器行为。Rust 的诞生就是为了解决这些问题,并提高安全性和性能。
OpenAI声称这款语言让开发人员无需太多努力即可挖掘硬件的最大潜能,从而比以往更轻松地创建更复杂的工作流程。
机器学习早已在许多产品中发挥过威力了,我们日常就与很多打过交道,从像苹果的Siri和谷歌的Now之类的“智能”助手,到像亚马逊建议买新产品的推荐引擎,再到谷歌和Facebook使用的排名系统,凡此种种,不一而足。最近,机器学习由于“深度学习”的进展闯入了公众视野,这些进展包括AlphaGo击败了围棋大师李世乭,以及围绕图像识别和机器翻译方面骄人的新产品。在本系列的文章中,我们将介绍在机器学习方面强大而又可以普遍应用的技术。
在探索权重不可知网络过程中,Google提出了一种无需学习权重参数就能在其环境中运行良好的“代理”。
本文介绍了如何使用.NET Standard构建一个神经网络。
Tim Hunter在今年的一月份就在Databricks博客发布博文,演示如何使用TensorFlow和Spark一起训练和应用深度学习模型。这里进行了详细的介绍。
随着AlphaGo战胜李世石,大数据、人工智能、深度学习这些概念最近已经成为一个非常火的话题。Google、Facebook、百度、阿里等一系列国内外大公司纷纷对外开放宣布人工智能将作为他们下一个战略重心。在AlphaGo、无人车等最新进展的背后,深度学习成为了推动人工智能发展的技术动力。本文根据才云科技首席大数据科学家郑泽宇在QCon2016全球软件开发大会(上海站)上的演讲整理而成,希望大家可以了解如何通过TensorFlow实现深度学习算法,并将深度学习运用到企业实践中。
在 Gluon 中,您可以使用简单、清晰和简洁的代码定义神经网络。
牛津和Skolkovo科技研究所的研究人员发明了一种生成式神经网络,无需训练就可以成功渲染“深度图像先验(deep-image priors)”。
本文是整个系列的第二篇文章,将会简单介绍TensorFlow安装方法、TensorFlow基本概念、神经网络基本模型,并在MNIST数据集上使用TensorFlow实现一个简单的神经网络。
图是强大的数据结构,可以被用于建模许多真实世界的场景。
Google于2017年2月16日(北京时间)凌晨2点在美国加利福尼亚州山景城举办了首届TensorFlow开发者峰会。Google现场宣布全球领先的深度学习开源框架TensorFlow正式对外发布V1.0版本,并保证Google的本次发布版本的API接口满足生产环境稳定性要求。 在过去的一年时间里,TensorFlow已经成功地帮助研究人员、工程师、艺术家、学习,以及许许多多其他人,在各个领取取得成功。从语言翻译,到皮肤癌的早期检测、预防糖尿病致盲,TensorFlow应用于超过6000个在线开源代码仓库。
当地时间2月18日,Facebook首席首席人工智能科学家、卷积神经网络之父Yann LeCun在旧金山的国际固态电路大会上发表了一篇论文,分享了他关于人工智能发展的一些看法,同时也谈到自己对于芯片和硬件发展的关注和研究。在这其中,诸如“深度学习可能需要一种新的编程语言”等说法引起了热烈讨论。
本文节选自图灵程序设计丛书 《深度学习入门》一书中的部分章节。
本文根据费良宏在2016QCon全球软件开发大会(上海)上的演讲整理而成。
人工智能、神经网络、机器学习、深度学习和大数据方面的重要知识点都能在这份速查表中找到!