Культура
Искусство
Языки
Языкознание
Вычислительная техника
Информатика
Финансы
Экономика
Биология
Сельское хозяйство
Психология
Ветеринария
Медицина
Юриспруденция
Право
Физика
История
Экология
Промышленность
Энергетика
Этика
Связь
Автоматика
Математика
Электротехника
Философия
Религия
Логика
Химия
Социология
Политология
Геология
|
Медведев В.С., Потемкин В.Г. Нейронные сети. MATLAB 6. В. Г. Потемкин
|
Название |
В. Г. Потемкин
|
Анкор |
Медведев В.С., Потемкин В.Г. Нейронные сети. MATLAB 6.doc |
Дата |
26.04.2017 |
Размер |
14.83 Mb. |
Формат файла |
|
Имя файла |
Медведев В.С., Потемкин В.Г. Нейронные сети. MATLAB 6.doc |
Тип |
Книга
#3790
|
страница |
50 из 50 |
|
CALCE · 436
CALCE1 · 437
CALCGX · 442
CALCPERF · 441
GETX · 439
SETX · 440
A
ADAPT · 325
ADAPTWB · 328
B
BOXDIST · 310
C
CALCA · 431
CALCA1 · 433
CALCJEJJ · 445
CALCJX · 443
CALCPD · 435
CELL2MAT · 448
COMBVEC · 449
COMPET · 296
CON2SEQ · 450
CONCUR · 452
D
DDOTPROD · 302
DHARDLIM · 284
DHARDLMS · 286
DIST · 305
DLOGSIG · 299
DMAE · 390
DMSE · 387
DMSEREG · 388
DNETPROD · 314
DNETSUM · 312
DOTPROD · 302
DPOSLIN · 288
DPURELIN · 287
DRADBAS · 293
DSATLIN · 290
DSATLINS · 291
DSSE · 386
DTANSIG · 300
DTRIBAS · 294
F
FORMX · 438
G
GENSIM · 480
GENSIMM · 485
h
hardlim · 284
hardlimS · 286
I
IND2VEC · 453
i
inIT · 315
inITCON · 324
inITLAY · 317
inITNW · 318
inITWB · 318
inITZERO · 319
L
LEARNCON · 404
LEARNGD · 396
LEARNGDM · 397
LEARNIS · 405
LEARNK · 402
LEARNLV1 · 399
LEARNLV2 · 400
LEARNOS · 406
LEARNP · 392
LEARNPN · 393
LEARNSOM · 408
LEARNWH · 395
LEARNН · 410
LEARNНD · 411
l
linkdist · 311
logsig · 299
m
mae · 390
mandist · 308
M
MAXLINLR · 411
m
midpoint · 321
mSe · 387
mSeREG · 388
n
negdist · 307
netprod · 314
netSUM · 312
netWC · 272
network · 217
netWORK · 245
neWCF · 261
neWELM · 280
neWFF · 255
neWFFTD · 259
neWGRNN · 268
neWHOP · 282
neWLIN · 251
neWLIND · 254
neWLVQ · 278
newp · 217
N
NEWP · 248
n
neWPNN · 271
neWRB · 264
neWRBE · 266
neWSOM · 275
nORMPRod · 304
P
POSLIN · 288
POSTMNMX · 425
POSTREG · 427
POSTSTD · 426
PREMNMX · 421
PRESTD · 422
PREРСА · 423
p
purelin · 287
R
RADBAS · 293
r
randnc · 323
randnR · 323
randS · 322
R
REVERT · 325
s
satlin · 290
satlinS · 291
S
SEQ2CON · 450
s
softmax · 297
S
SRCHBAC · 420
SRCHBRE · 416
SRCHCHA · 418
SRCHGOL · 414
SRCHHYB · 417
s
sSE · 386
T
TANSIG · 300
t
train · 334
trainb · 337
trainbfg · 373
trainbr · 381
trainc · 341
traincgb · 369
traincgf · 363
traincgp · 366
traingd · 351
traingda · 353
T
TRAINGDM · 356
t
traingdx · 358
trainlm · 378
trainoss · 376
trainr · 344
trainrp · 361
trains · 331
trainscg · 371
T
TRAMNMX · 428
TRAPCA · 430
TRASTD · 429
t
tribas · 294
V
VEC2IND · 453
Литература
Книги на английском языке:
Battiti R. First and second order methods for learning: Between steepest descent
and Newton’s method. // Neural Computation. 1992. Vol. 4, N 2. P. 141–166.
Beale E. M. L. A derivation of conjugate gradients in F. A. Lootsma.// Numerical
methods for nonlinear optimization. London: Academic Press, 1972.
Brent R. P. Algorithms for Minimization Without Derivatives. Englewood Cliffs,
NJ: Prentice-Hall, 1973.
Brent R. P. Introduction to Non-Linear Estimation. 1985.
Caudill M. Neural Networks Primer. San Francisco, CA: Miller Freeman Publications, 1989.
Caudill M., Butler C. Understanding Neural Networks: Computer Explorations: Vols. 1, 2. Cambridge, MA: MIT Press, 1992.
Chen S., Cowan C. F. N., Grant P. M. Orthogonal least squares learning algorithm for radial basis function networks// IEEE Transactions on Neural Networks. 1991. Vol. 2,
N 2. P. 302-309.
Charalambous C. Conjugate gradient algorithm for efficient training of artificial neural networks// IEEE Proceedings. 1992. Vol. 139, N 3. P. 301–310.
Dennis J. E., Schnabel R. B. Numerical Methods for Unconstrained Optimization
and Nonlinear Equations. Englewood Cliffs, NJ: Prentice-Hall, 1983.
Elman J. L. Finding structure in time// Cognitive Science. 1990. Vol. 14. P. 179-211.
Foresee F. D., Hagan M. T. Gauss-Newton approximation to Bayesian regularization// Proceedings of the 1997 International Joint Conference on Neural Networks. 1997.
P. 1930-1935.
Fletcher R., Reeves C. M. Function minimization by conjugate gradients// ComputerJournal. 1964. Vol. 7. P. 149-154.
Gill P. E., Murray W., Wright M. H. Practical Optimization. New York: Academic
Press, 1981.
Grossberg, S. Studies of the Mind and Brain. Drodrecht, Holland: Reidel Press, 1982.
Hagan M. T., Demuth H. B. Neural Networks for Control// Proceedings of the 1999American Control Conference. SanDiego: CA, 1999. P. 1642-1656.
Hagan M. T., De Jesus O., Schultz R. Training Recurrent Networks for Filtering
and Control. Ch. 12.// Recurrent Neural Networks: Design and Applications,
L. Medsker, L.C. Jain,Eds. CRC Press, 1999. P. 311-340.
Hagan M.T., Menhaj M. Training feedforward networks with the Marquardt algorithm// IEEE Transactions on Neural Networks.1994. Vol. 5, N 6. P. 989–993.
Hagan M. T., Demuth H. B., Beale M.H. Neural Network Design. Boston, MA: PWS Publishing, 1996.
Hebb D. O. The Organization of Behavior. New York: Wiley, 1949.
Himmelblau D. M., Applied Nonlinear Programming. New York: McGraw-Hill, 1972.
Hunt K. J., Sbarbaro D., Zbikowski R., Gawthrop P. J. Neural Networks for Control System – A Survey// Automatica. 1992. Vol. 28. P. 1083-1112.
Jolliffe I. T. Principal Component Analysis. New York: Springer-Verlag. 1986.
Kohonen T. Self-Organization and Associative Memory.2nd ed. Berlin: Springer-Verlag, 1987.
Kohonen, T. Self-Organizing Maps, Second Edition. Berlin: Springer-Verlag. 1997.
Li J., Michel A. N., Porod W. Analysis and synthesis of a class of neural networks: linear systems operating on a closed hypercube// IEEE Transactions on Circuits and Systems. 1989. Vol. 36, N 11. P. 1405-1422.
Lippman R. P. An introduction to computing with neural nets// IEEE ASSP Magazine. 1987. P. 4-22.
MacKay D. J. C. Bayesian interpolation// Neural Computation. 1912. Vol. 4. N 3.
P. 415-447.
McCulloch W. S., Pitts W. H. A logical calculus of ideas immanent in nervous activity// Bulletin of Mathematical Biophysics. 1943. Vol. 5. P. 115-133.
Moller M. F. A scaled conjugate gradient algorithm for fast supervised learning// NeuralNetworks. 1993. Vol. 6. P. 525-533.
Murray R. D., Sbarbaro N. D. Neural Networks for Modeling and Control of a Non-linear Dynamic System//Proceedings of the 1992 IEEE International Symposium on IntelligentControl.1992. P. 404-409.
Narendra K. S., Mukhopadhyay S. Adaptive Control Using Neural Networks and Approximate Models// IEEE Transactions on Neural Networks. 1997. Vol. 8. P. 475-485.
Nguyen D., Widrow B. The truck backer-upper: An example of self-learning in neural networks// Proceedings of the International Joint Conference on Neural Networks. 1989. Vol 2. P. 357-363.
Nguyen D., Widrow B. Improving the learning speed of 2-layer neural networks by choosing initial values of the adaptive weights// Proceedings of the International JointConference on Neural Networks. 1990. Vol 3. P. 21-26.
Powell M. J. D. Restart procedures for the conjugate gradient method// MathematicalProgramming. 1977. Vol. 12. P. 241-254.
Purdie N., Lucas E. A., Talley M. B. Direct measure of total cholesterol and its
distribution among major serum lipoproteins// Clinical Chemistry.1992. Vol. 38, N 9.
P. 1645-1647.
Riedmiller M., Braun H. A direct adaptive method for faster backpropagation learning: The RPROP algorithm// Proceedings of the IEEE International Conference on Neural Networks. 1993.
Rosenblatt F. Principles of Neurodynamics. Washington D. C.: Spartan Press, 1961;
:Пер. с англ. Розенблатт Ф. Принципы нейродинамики. М.: Мир, 1965.
Rumelhart D. E., Hinton G. E., Williams R. J. Learning internal representations by error propagation. Еd. by D. E. Rumelhart, J. L. McClelland// Parallel Data Processing. 1986. Vol.1. Cambridge, MA: The M.I.T. Press. P. 318-362.
Rumelhart D. E., Hinton G. E., Williams R. J. Learning representations by back-propagating errors// Nature. 1986. Vol. 323. P. 533–536.
Soloway D., Haley P. J. Neural Generalized Predictive Control// Proceedingsof the 1996IEEE International Symposium on Intelligent Control. 1996. P. 277-281.
Scales L. E. Introduction to Non-Linear Optimization. New York: Springer-Verlag, 1985.
Vogl T.P., Mangis J.K. et al. Accelerating the convergence of the backpropagation method// Biological Cybernetics. 1988. Vol. 59. P. 256-264.
Wasserman P. D. Advanced Methods in Neural Computing. New York: Van Nostrand Reinhold, 1993.
Widrow B., Hoff M .E. Adaptive switching circuits// 1960 IREWESCON ConventionRecord. New York IRE. 1960. P. 96-104.
Widrow B., Sterns S. D. Adaptive Signal Processing. New York: Prentice-Hall, 1985.
Книги на русском языке:
Беркинблит М. Б. Нейронные сети. М.: МИРОС, 1993.
Уоссерман Ф. Нейрокомпьютерная техника. М.: Мир, 1992.
Мишулина О. А., Лабинская А. А., Щербинина М. В. Лабораторный практикум
по курсу "Введение в теорию нейронных сетей". М.: МИФИ, 2000. 204 с.
Омату С., Халид М., Юсоф Р. Нейроуправление и его приложения. М.: ИПРЖРБ, 2000. 272 с.
Тихонов А. Н. О решении некорректно поставленных задач и методе регуляризации// Доклады АН СССР. Т.151, № 3. 1963.
Лазарев Ю. Ф. MatLAB 5.x. Киев: Издат. группа BHV, 2000. 384 с.
Гультяев А. К. Визуальное моделирование в среде MATLAB: Учеб. курс. СПб: Питер, 2000. 432 с.
Потемкин В. Г. Инструментальные средства MATLAB 5.х. М.: Диалог-МИФИ, 2000. 336 с.
Медведев В. С., Потемкин В. Г. Control System Toolbox. MATLAB 5 для студентов. /Под общ. ред. В.Г. Потемкина. М.:Диалог-МИФИ, 1999. 287 с. (Пакеты прикладных программ; Кн. 1).
Рудаков П. И., Сафонов И. В. Обработка сигналов и изображений. MATLAB 5.x /Под общ. ред. В.Г. Потемкина. М.:Диалог-МИФИ, 1999. 287 с. (Пакеты прикладных программ; Кн. 2).
Лавров К. Н., Цыплякова Т. П. Финансовая аналитика. MATLAB 6 /Под общ.
ред. В. Г. Потемкина. М.: Диалог-МИФИ, 2001. 363 с. (Пакеты прикладных программ; Кн. 3).
Галушкин А.И. Теория нейронных сетей. М.: ИПРЖР, 2000. 416 с.
Галушкин А.И. Нейрокомпьютеры. М.: ИПРЖР, 2000. 532 с.
Оглавление
1
|
|
|