This HTML5 document contains 40 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

Namespace Prefixes

PrefixIRI
dctermshttp://purl.org/dc/terms/
yago-reshttp://yago-knowledge.org/resource/
dbohttp://dbpedia.org/ontology/
foafhttp://xmlns.com/foaf/0.1/
dbpedia-eshttp://es.dbpedia.org/resource/
n16https://global.dbpedia.org/id/
dbthttp://dbpedia.org/resource/Template:
dbpedia-ukhttp://uk.dbpedia.org/resource/
rdfshttp://www.w3.org/2000/01/rdf-schema#
dbpedia-fahttp://fa.dbpedia.org/resource/
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
owlhttp://www.w3.org/2002/07/owl#
wikipedia-enhttp://en.wikipedia.org/wiki/
dbphttp://dbpedia.org/property/
dbchttp://dbpedia.org/resource/Category:
provhttp://www.w3.org/ns/prov#
xsdhhttp://www.w3.org/2001/XMLSchema#
wikidatahttp://www.wikidata.org/entity/
dbrhttp://dbpedia.org/resource/

Statements

Subject Item
dbr:Neural_Turing_machine
rdfs:label
Нейронна машина Тюрінга Máquina de Turing neuronal Neural Turing machine
rdfs:comment
Нейро́нні маши́ни Тю́рінга (НМТ, англ. Neural Turing machines, NTMs) поєднують можливості нечіткого зіставлення зі зразками нейронних мереж з алгоритмічною потужністю . НМТ має нейромережевий контролер, зв'язаний з ресурсами зовнішньої пам'яті, з якими він взаємодіє за допомогою . Взаємодія з пам'яттю є диференційовною з краю в край, що уможливлює оптимізацію за допомогою градієнтного спуску. НМТ з контролером на основі мережі довгої короткочасної пам'яті (ДКЧП) може виводити прості алгоритми, такі як копіювання, впорядкування та асоціативне пригадування на основі зразків входу та виходу. A Neural Turing machine (NTM) is a recurrent neural network model of a Turing machine. The approach was published by Alex Graves et al. in 2014. NTMs combine the fuzzy pattern matching capabilities of neural networks with the algorithmic power of programmable computers. Differentiable neural computers are an outgrowth of Neural Turing machines, with attention mechanisms that control where the memory is active, and improve performance. Una máquina de Turing neuronal (MTNs) es un modelo de red neuronal recurrente publicado por Alex Graves en 2014. Las MTNs combinan la capacidad para búsqueda de patrones fuzzy, propia de las redes neuronales, con el poder algorítmico de los ordenadores programables. Una MTN tiene un controlador de red neuronal suplementado con otros recursos en memoria externa, los cuales interactúan con la red. Las interacciones de memoria son diferenciables end-to-end, haciendo posible optimizarlas utilizando descenso de gradiente.​ Una MTN con un controlador de memoria a corto y largo plazo (por las siglas en inglés, LSTM) puede inferir algoritmos sencillos como copiar, ordenar, y recuerdos asociativos a través de ejemplos de entradas y salidas.​
dcterms:subject
dbc:Neural_network_architectures
dbo:wikiPageID
50568884
dbo:wikiPageRevisionID
1116063610
dbo:wikiPageWikiLink
dbr:Turing_machine dbr:Source_code dbr:Recurrent_neural_network dbr:Attention_mechanism dbr:Stochastic_gradient_descent dbr:NaN dbc:Neural_network_architectures dbr:Alex_Graves_(computer_scientist) dbr:Pattern_matching dbr:Auxiliary_memory dbr:Differentiable_neural_computer dbr:Long_short-term_memory dbr:Programmable_computer dbr:Algorithm dbr:Gradient_descent dbr:Neural_network
owl:sameAs
dbpedia-uk:Нейронна_машина_Тюрінга yago-res:Neural_Turing_machine dbpedia-es:Máquina_de_Turing_neuronal n16:2PDR5 wikidata:Q25325414 dbpedia-fa:ماشین_تورینگ_عصبی
dbp:wikiPageUsesTemplate
dbt:Turing dbt:Reflist dbt:Differentiable_computing
dbo:abstract
Una máquina de Turing neuronal (MTNs) es un modelo de red neuronal recurrente publicado por Alex Graves en 2014. Las MTNs combinan la capacidad para búsqueda de patrones fuzzy, propia de las redes neuronales, con el poder algorítmico de los ordenadores programables. Una MTN tiene un controlador de red neuronal suplementado con otros recursos en memoria externa, los cuales interactúan con la red. Las interacciones de memoria son diferenciables end-to-end, haciendo posible optimizarlas utilizando descenso de gradiente.​ Una MTN con un controlador de memoria a corto y largo plazo (por las siglas en inglés, LSTM) puede inferir algoritmos sencillos como copiar, ordenar, y recuerdos asociativos a través de ejemplos de entradas y salidas.​ Los ordenadores neuronales diferenciables son un tipo concreto de máquina neuronal de Turing, con mecanismos de atención que controlan dónde es activa la memoria, y mejoran el rendimiento.​ Нейро́нні маши́ни Тю́рінга (НМТ, англ. Neural Turing machines, NTMs) поєднують можливості нечіткого зіставлення зі зразками нейронних мереж з алгоритмічною потужністю . НМТ має нейромережевий контролер, зв'язаний з ресурсами зовнішньої пам'яті, з якими він взаємодіє за допомогою . Взаємодія з пам'яттю є диференційовною з краю в край, що уможливлює оптимізацію за допомогою градієнтного спуску. НМТ з контролером на основі мережі довгої короткочасної пам'яті (ДКЧП) може виводити прості алгоритми, такі як копіювання, впорядкування та асоціативне пригадування на основі зразків входу та виходу. Вони можуть виводити алгоритми з самих лише прикладів входів та виходів. є результатом розвитку нейронних машин Тюрінга, з механізмами зосередження уваги, які керують активністю пам'яті, та покращеною продуктивністю. A Neural Turing machine (NTM) is a recurrent neural network model of a Turing machine. The approach was published by Alex Graves et al. in 2014. NTMs combine the fuzzy pattern matching capabilities of neural networks with the algorithmic power of programmable computers. An NTM has a neural network controller coupled to external memory resources, which it interacts with through attentional mechanisms. The memory interactions are differentiable end-to-end, making it possible to optimize them using gradient descent. An NTM with a long short-term memory (LSTM) network controller can infer simple algorithms such as copying, sorting, and associative recall from examples alone. The authors of the original NTM paper did not publish their source code. The first stable open-source implementation was published in 2018 at the 27th International Conference on Artificial Neural Networks, receiving a best-paper award. Other open source implementations of NTMs exist but as of 2018 they are not sufficiently stable for production use. The developers either report that the gradients of their implementation sometimes become NaN during training for unknown reasons and cause training to fail; report slow convergence; or do not report the speed of learning of their implementation. Differentiable neural computers are an outgrowth of Neural Turing machines, with attention mechanisms that control where the memory is active, and improve performance.
prov:wasDerivedFrom
wikipedia-en:Neural_Turing_machine?oldid=1116063610&ns=0
dbo:wikiPageLength
4820
foaf:isPrimaryTopicOf
wikipedia-en:Neural_Turing_machine