Главная страница
Культура
Искусство
Языки
Языкознание
Вычислительная техника
Информатика
Финансы
Экономика
Биология
Сельское хозяйство
Психология
Ветеринария
Медицина
Юриспруденция
Право
Физика
История
Экология
Промышленность
Энергетика
Этика
Связь
Автоматика
Математика
Электротехника
Философия
Религия
Логика
Химия
Социология
Политология
Геология

Медведев В.С., Потемкин В.Г. Нейронные сети. MATLAB 6. В. Г. Потемкин



Скачать 14.83 Mb.
Название В. Г. Потемкин
Анкор Медведев В.С., Потемкин В.Г. Нейронные сети. MATLAB 6.doc
Дата 26.04.2017
Размер 14.83 Mb.
Формат файла doc
Имя файла Медведев В.С., Потемкин В.Г. Нейронные сети. MATLAB 6.doc
Тип Книга
#3790
страница 50 из 50
1   ...   42   43   44   45   46   47   48   49   50

Предметный указатель




CALCE · 436

CALCE1 · 437

CALCGX · 442

CALCPERF · 441

GETX · 439

SETX · 440

A

ADAPT · 325

ADAPTWB · 328

B

BOXDIST · 310

C

CALCA · 431

CALCA1 · 433

CALCJEJJ · 445

CALCJX · 443

CALCPD · 435

CELL2MAT · 448

COMBVEC · 449

COMPET · 296

CON2SEQ · 450

CONCUR · 452

D

DDOTPROD · 302

DHARDLIM · 284

DHARDLMS · 286

DIST · 305

DLOGSIG · 299

DMAE · 390

DMSE · 387

DMSEREG · 388

DNETPROD · 314

DNETSUM · 312

DOTPROD · 302

DPOSLIN · 288

DPURELIN · 287

DRADBAS · 293

DSATLIN · 290

DSATLINS · 291

DSSE · 386

DTANSIG · 300

DTRIBAS · 294

F

FORMX · 438

G

GENSIM · 480

GENSIMM · 485

h

hardlim · 284

hardlimS · 286

I

IND2VEC · 453

i

inIT · 315

inITCON · 324

inITLAY · 317

inITNW · 318

inITWB · 318

inITZERO · 319

L

LEARNCON · 404

LEARNGD · 396

LEARNGDM · 397

LEARNIS · 405

LEARNK · 402

LEARNLV1 · 399

LEARNLV2 · 400

LEARNOS · 406

LEARNP · 392

LEARNPN · 393

LEARNSOM · 408

LEARNWH · 395

LEARNН · 410

LEARNНD · 411

l

linkdist · 311

logsig · 299

m

mae · 390

mandist · 308

M

MAXLINLR · 411

m

midpoint · 321

mSe · 387

mSeREG · 388

n

negdist · 307

netprod · 314

netSUM · 312

netWC · 272

network · 217

netWORK · 245

neWCF · 261

neWELM · 280

neWFF · 255

neWFFTD · 259

neWGRNN · 268

neWHOP · 282

neWLIN · 251

neWLIND · 254

neWLVQ · 278

newp · 217

N

NEWP · 248

n

neWPNN · 271

neWRB · 264

neWRBE · 266

neWSOM · 275

nORMPRod · 304

P

POSLIN · 288

POSTMNMX · 425

POSTREG · 427

POSTSTD · 426

PREMNMX · 421

PRESTD · 422

PREРСА · 423

p

purelin · 287

R

RADBAS · 293

r

randnc · 323

randnR · 323

randS · 322

R

REVERT · 325

s

satlin · 290

satlinS · 291

S

SEQ2CON · 450

s

softmax · 297

S

SRCHBAC · 420

SRCHBRE · 416

SRCHCHA · 418

SRCHGOL · 414

SRCHHYB · 417

s

sSE · 386

T

TANSIG · 300

t

train · 334

trainb · 337

trainbfg · 373

trainbr · 381

trainc · 341

traincgb · 369

traincgf · 363

traincgp · 366

traingd · 351

traingda · 353

T

TRAINGDM · 356

t

traingdx · 358

trainlm · 378

trainoss · 376

trainr · 344

trainrp · 361

trains · 331

trainscg · 371

T

TRAMNMX · 428

TRAPCA · 430

TRASTD · 429

t

tribas · 294

V

VEC2IND · 453


Литература

Книги на английском языке:

  1. Battiti R. First and second order methods for learning: Between steepest descent
    and Newton’s method. // Neural Computation. 1992. Vol. 4, N 2. P. 141–166.

  2. Beale E. M. L. A derivation of conjugate gradients in F. A. Lootsma.// Numerical
    methods for nonlinear optimization. London: Academic Press, 1972.

  3. Brent R. P. Algorithms for Minimization Without Derivatives. Englewood Cliffs,
    NJ: Prentice-Hall, 1973.

  4. Brent R. P. Introduction to Non-Linear Estimation. 1985.

  5. Caudill M. Neural Networks Primer. San Francisco, CA: Miller Freeman Publications, 1989.

  6. Caudill M., Butler C. Understanding Neural Networks: Computer Explorations: Vols. 1, 2. Cambridge, MA: MIT Press, 1992.

  7. Chen S., Cowan C. F. N., Grant P. M. Orthogonal least squares learning algorithm for radial basis function networks// IEEE Transactions on Neural Networks. 1991. Vol. 2,
    N 2. P. 302-309.

  8. Charalambous C. Conjugate gradient algorithm for efficient training of artificial neural networks// IEEE Proceedings. 1992. Vol. 139, N 3. P. 301–310.

  9. Dennis J. E., Schnabel R. B. Numerical Methods for Unconstrained Optimization
    and Nonlinear Equations. Englewood Cliffs, NJ: Prentice-Hall, 1983.

  10. Elman J. L. Finding structure in time// Cognitive Science. 1990. Vol. 14. P. 179-211.

  11. Foresee F. D., Hagan M. T. Gauss-Newton approximation to Bayesian regularization// Proceedings of the 1997 International Joint Conference on Neural Networks. 1997.
    P. 1930-1935.

  12. Fletcher R., Reeves C. M. Function minimization by conjugate gradients// ComputerJournal. 1964. Vol. 7. P. 149-154.

  13. Gill P. E., Murray W., Wright M. H. Practical Optimization. New York: Academic
    Press, 1981.

  14. Grossberg, S. Studies of the Mind and Brain. Drodrecht, Holland: Reidel Press, 1982.

  15. Hagan M. T., Demuth H. B. Neural Networks for Control// Proceedings of the 1999American Control Conference. SanDiego: CA, 1999. P. 1642-1656.

  16. Hagan M. T., De Jesus O., Schultz R. Training Recurrent Networks for Filtering
    and Control. Ch. 12.// Recurrent Neural Networks: Design and Applications,
    L. Medsker, L.C. Jain,Eds. CRC Press, 1999. P. 311-340.

  17. Hagan M.T., Menhaj M. Training feedforward networks with the Marquardt algorithm// IEEE Transactions on Neural Networks.1994. Vol. 5, N 6. P. 989–993.

  18. Hagan M. T., Demuth H. B., Beale M.H. Neural Network Design. Boston, MA: PWS Publishing, 1996.

  19. Hebb D. O. The Organization of Behavior. New York: Wiley, 1949.

  20. Himmelblau D. M., Applied Nonlinear Programming. New York: McGraw-Hill, 1972.

  21. Hunt K. J., Sbarbaro D., Zbikowski R., Gawthrop P. J. Neural Networks for Control System – A Survey// Automatica. 1992. Vol. 28. P. 1083-1112.

  22. Jolliffe I. T. Principal Component Analysis. New York: Springer-Verlag. 1986.

  23. Kohonen T. Self-Organization and Associative Memory.2nd ed. Berlin: Springer-Verlag, 1987.

  24. Kohonen, T. Self-Organizing Maps, Second Edition. Berlin: Springer-Verlag. 1997.

  25. Li J., Michel A. N., Porod W. Analysis and synthesis of a class of neural networks: linear systems operating on a closed hypercube// IEEE Transactions on Circuits and Systems. 1989. Vol. 36, N 11. P. 1405-1422.

  26. Lippman R. P. An introduction to computing with neural nets// IEEE ASSP Magazine. 1987. P. 4-22.

  27. MacKay D. J. C. Bayesian interpolation// Neural Computation. 1912. Vol. 4. N 3.
    P. 415-447.

  28. McCulloch W. S., Pitts W. H. A logical calculus of ideas immanent in nervous activity// Bulletin of Mathematical Biophysics. 1943. Vol. 5. P. 115-133.

  29. Moller M. F. A scaled conjugate gradient algorithm for fast supervised learning// NeuralNetworks. 1993. Vol. 6. P. 525-533.

  30. Murray R. D., Sbarbaro N. D. Neural Networks for Modeling and Control of a Non-linear Dynamic System//Proceedings of the 1992 IEEE International Symposium on IntelligentControl.1992. P. 404-409.

  31. Narendra K. S., Mukhopadhyay S. Adaptive Control Using Neural Networks and Approximate Models// IEEE Transactions on Neural Networks. 1997. Vol. 8. P. 475-485.

  32. Nguyen D., Widrow B. The truck backer-upper: An example of self-learning in neural networks// Proceedings of the International Joint Conference on Neural Networks. 1989. Vol 2. P. 357-363.

  33. Nguyen D., Widrow B. Improving the learning speed of 2-layer neural networks by choosing initial values of the adaptive weights// Proceedings of the International JointConference on Neural Networks. 1990. Vol 3. P. 21-26.

  34. Powell M. J. D. Restart procedures for the conjugate gradient method// MathematicalProgramming. 1977. Vol. 12. P. 241-254.

  35. Purdie N., Lucas E. A., Talley M. B. Direct measure of total cholesterol and its
    distribution among major serum lipoproteins// Clinical Chemistry.1992. Vol. 38, N 9.
    P. 1645-1647.

  36. Riedmiller M., Braun H. A direct adaptive method for faster backpropagation learning: The RPROP algorithm// Proceedings of the IEEE International Conference on Neural Networks. 1993.

  37. Rosenblatt F. Principles of Neurodynamics. Washington D. C.: Spartan Press, 1961;
    :Пер. с англ. Розенблатт Ф. Принципы нейродинамики. М.: Мир, 1965.

  38. Rumelhart D. E., Hinton G. E., Williams R. J. Learning internal representations by error propagation. Еd. by D. E. Rumelhart, J. L. McClelland// Parallel Data Processing. 1986. Vol.1. Cambridge, MA: The M.I.T. Press. P. 318-362.

  39. Rumelhart D. E., Hinton G. E., Williams R. J. Learning representations by back-propagating errors// Nature. 1986. Vol. 323. P. 533–536.

  40. Soloway D., Haley P. J. Neural Generalized Predictive Control// Proceedingsof the 1996IEEE International Symposium on Intelligent Control. 1996. P. 277-281.

  41. Scales L. E. Introduction to Non-Linear Optimization. New York: Springer-Verlag, 1985.

  42. Vogl T.P., Mangis J.K. et al. Accelerating the convergence of the backpropagation method// Biological Cybernetics. 1988. Vol. 59. P. 256-264.

  43. Wasserman P. D. Advanced Methods in Neural Computing. New York: Van Nostrand Reinhold, 1993.

  44. Widrow B., Hoff M .E. Adaptive switching circuits// 1960 IREWESCON ConventionRecord. New York IRE. 1960. P. 96-104.

  45. Widrow B., Sterns S. D. Adaptive Signal Processing. New York: Prentice-Hall, 1985.
Книги на русском языке:

  1. Беркинблит М. Б. Нейронные сети. М.: МИРОС, 1993.

  2. Уоссерман Ф. Нейрокомпьютерная техника. М.: Мир, 1992.

  3. Мишулина О. А., Лабинская А. А., Щербинина М. В. Лабораторный практикум
    по курсу "Введение в теорию нейронных сетей". М.: МИФИ, 2000. 204 с.

  4. Омату С., Халид М., Юсоф Р. Нейроуправление и его приложения. М.: ИПРЖРБ, 2000. 272 с.

  5. Тихонов А. Н. О решении некорректно поставленных задач и методе регуляри­зации// Доклады АН СССР. Т.151, № 3. 1963.

  6. Лазарев Ю. Ф. MatLAB 5.x. Киев: Издат. группа BHV, 2000. 384 с.

  7. Гультяев А. К. Визуальное моделирование в среде MATLAB: Учеб. курс. СПб: Питер, 2000. 432 с.

  8. Потемкин В. Г. Инструментальные средства MATLAB 5.х. М.: Диалог-МИФИ, 2000. 336 с.

  9. Медведев В. С., Потемкин В. Г. Control System Toolbox. MATLAB 5 для студентов. /Под общ. ред. В.Г.  Потемкина. М.:Диалог-МИФИ, 1999. 287 с. (Пакеты прикладных программ; Кн. 1).

  10. Рудаков П. И., Сафонов И. В. Обработка сигналов и изображений. MATLAB 5.x /Под общ. ред. В.Г.  Потемкина. М.:Диалог-МИФИ, 1999. 287 с. (Пакеты прикладных программ; Кн. 2).

  11. Лавров К. Н., Цыплякова Т. П. Финансовая аналитика. MATLAB 6 /Под общ.
    ред. В. Г. Потемкина. М.: Диалог-МИФИ, 2001. 363 с. (Пакеты прикладных программ; Кн. 3).

  12. Галушкин А.И. Теория нейронных сетей. М.: ИПРЖР, 2000. 416 с.

  13. Галушкин А.И. Нейрокомпьютеры. М.: ИПРЖР, 2000. 532 с.

Оглавление





1


Сигмоидальной (S-образной) функцией называется непрерывная функция, имеющая две горизонтальные асимптоты и одну точку перегиба.

1
1   ...   42   43   44   45   46   47   48   49   50
написать администратору сайта