Антология машинного обучения. Важнейшие исследования в области ИИ за последние 60 лет - Терренс Дж. Сейновски
Шрифт:
Интервал:
208
Автор немного ошибся в подсчетах. По версии компании Global Language Monitor, которая фиксирует распространение слов английского языка по всему миру, число английских слов уже превысило миллиард. В наиболее современной версии Оксфордского словаря, доступной онлайн, уже более 600 тысяч слов. – Прим. ред.
209
Siddhartha Mukherjee A. I., Versus M. D.: “What happens when diagnosis is automated?” New Yorker, April 3, 2017 www.newyorker.com/magazine/2017/04/03/ai-versus-md
210
Daniel Kahneman (2011). Thinking, Fast and Slow. (Farrar, Straus & Giroux, New York).
211
Oakley B., Knafo A., Madhavan G., Wilson D. S., eds (2011) Pathological Altruism (Oxford Univ Press, Oxford).
212
T. S. Kuhn. The Structure of Scientific Revolutions Chicago, IL University of Chicago Press (1970).
213
Pearl J. Probabilistic Reasoning in Intelligent Systems. San Francisco CA: Morgan Kaufmann. 1988.
214
Bengio Y., Lamblin P., Popovici D. & Larochelle H. (2006). “Greedy layer-wise training of deep networks”. In B. Schölkopf, J. Platt & T. Hoffman (Eds.), Advances in neural information processing systems, 19 (pp. 153–160). Cambridge, MA: MIT Press.
215
S. Hochreiter, Y. Bengio, P. Frasconi and J. Schmidhuber. “Gradient flow in recurrent nets: the difficulty of learning long-term dependencies”. In S. C. Kremer and J. F. Kolen, editors, A Field Guide to Dynamical Recurrent Neural Networks. IEEE Press, 2001.
216
D. C. Ciresan, U. Meier, L. M. Gambardella, J. Schmidhuber, «Deep big simple neural nets for handwritten digit recognition», Neural Comput., vol. 22, no. 12, pp. 3207–3220, 2010.
217
G. Hinton, L. Deng, G. E. Dahl, A. Mohamed, N. Jaitly, A. Senior, V. Vanhoucke, P. Nguyen, T. Sainath, B. Kingsbury. «Deep Neural Networks for Acoustic Modeling in Speech Recognition», IEEE Signal Processing Magazine, vol. 29, no. 6, pp. 82–97, Nov. 2012.
218
Alex Krizhevsky, Ilya Sutskever, Geoffrey E. Hinton. “ImageNet Classification with Deep Convolutional Neural Networks”, Advances in Neural Information Processing Systems 25 (NIPS 2012) papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks
219
Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun, “Deep Residual Learning for Image Recognition” arxiv.org/abs/1512.03385.
220
Научно-фантастический фильм Стэнли Кубрика 1968 года по мотивам рассказа Артура Кларка «Часовой». – Прим. ред.
221
Yann LeCun, «Modeles connexionnistes de l'apprentissage» (Connecionist learning models), Universite P. et M. Curie (Paris 6) 1987.
222
База данных MNIST (сокращение от Modified National Institute of Standards and Technology) – объемная база данных образцов рукописного написания цифр, США. – Прим. ред.
223
Alex Krizhevsky, Ilya Sutskever, Geoffrey E. Hinton, “ImageNet Classification with Deep Convolutional Neural Networks”, Advances in Neural Information Processing Systems 25 (2012) papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks
224
Matthew D. Zeiler, Rob Fergus, “Visualizing and Understanding Convolutional Networks”, arXiv:1311.2901 (2013).
225
Churchland Patricia Smith (1989). Neurophilosophy: Toward a Unified Science of the Mind-Brain. The MIT Press.
226
Churchland P. S. and Sejnowski T. J. The Computational Brain, 2nd edition, Cambridge, MA: MIT Press (2016).
227
Yamins D. L., DiCarlo J. J. “Using goal-driven deep learning models to understand sensory cortex”. Nat Neurosci. 19(3):356–65 (2016).
228
Funahashi S., Bruce C. J., Goldman-Rakic P. S. (1990) “Visuospatial coding in primate prefrontal neurons revealed by oculomotor paradigms”. J Neurophysiol 63:814–831.
229
Elman J. L. (1990). «Finding Structure in Time». Cognitive Science. 14, 179–211. Jordan M. I. (1986). «Serial Order: A Parallel Distributed Processing Approach» Advances in Psychology 121, 471–495 (1997).
230
Hochreiter S., Schmidhuber J. «Long short-term memory». Neural Computation. 9 (8): 1735–1780 (1997).
231
John Markoff (27 November 2016). “When A. I. Matures, It May Call Jürgen Schmidhuber ‘Dad’ “. The New York Times.
232
Комик Родни Дейнджерфилд известен фразой «Я не получаю никакого уважения!» Редко можно найти кого-то, кто думает, что получает слишком много уважения. – Прим. авт.
233
Реже употребляется форма «генеративные состязательные сети». – Прим. ред.
234
Goodfellow Ian J., Pouget-Abadie Jean, Mirza Mehdi, Xu Bing, Warde-Farley David, Ozair Sherjil, Courville Aaron C. and Bengio Yoshua. “Generative adversarial nets”. Advances in Neural Information Processing Systems, 2014.
235
Schawinski Kevin; Zhang Ce; Zhang Hantian; Fowler Lucas; Santhanam Gokula Krishnan (201702-01). «Generative Adversarial Networks recover features in astrophysical images of galaxies beyond the deconvolution limit». arXiv:1702.00403, 2017.
236
Jonathan Chang, Stefan Scherer, “Learning Representations of Emotional Speech with Deep Convolutional Generative Adversarial Networks”, arXiv:1705.02394, 2017.
237
Визуальный эффект в компьютерном графике, при котором один объект на изображении плавно меняется на другой. – Прим. ред.
238
Nguyen Anh, Yosinski Jason, Bengio Yoshua, Dosovitskiy Alexey and Clune Jeff. “Plug & play generative networks: Conditional iterative generation of images in latent space”. arXiv:1612.00005, 2016.
239
Alec Radford, Luke Metz, Soumith Chintala, “Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks”, arXiv:1511.06434, 2016.
240
Guy Trebay, Miuccia, “Prada and Sylvia Fendi Grapple With the New World”, New York Times, June 19, 2017.
241
Группа данных с присвоенными справочными тегами или выходной информацией. – Прим. ред.
242
Poggio T., R. Rifkin S. Mukherjee and P. Niyogi. «General Conditions for Predictivity in Learning Theory», Nature, 428, 419–422, 2004.
243
Бенджио также является советником нескольких компаний, включая Microsoft, и соучредителем компании Element AI, однако его основные связи – в академических кругах, и он приверженец прогресса науки и общественного блага. – Прим. авт.
244
Поделиться книгой в соц сетях:
Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!