Parallel Implementations Of Backpropagation Neural Networks On Transputers: A Study Of Training Set Parallelism

┬╖ ┬╖
┬╖ Progress In Neural Processing рдкреБрд╕реНрддрдХ 3 ┬╖ World Scientific
5.0
рдПрдХ рд╕рдореАрдХреНрд╖рд╛
рдИ-рдмреБрдХ
220
рдкреЗрдЬ
рдпреЛрдЧреНрдп
рд░реЗрдЯрд┐рдВрдЧ рдФрд░ рд╕рдореАрдХреНрд╖рд╛рдУрдВ рдХреА рдкреБрд╖реНрдЯрд┐ рдирд╣реАрдВ рд╣реБрдИ рд╣реИ  рдЬрд╝реНрдпрд╛рджрд╛ рдЬрд╛рдиреЗрдВ

рдЗрд╕ рдИ-рдмреБрдХ рдХреЗ рдмрд╛рд░реЗ рдореЗрдВ рдЬрд╛рдирдХрд╛рд░реА

This book presents a systematic approach to parallel implementation of feedforward neural networks on an array of transputers. The emphasis is on backpropagation learning and training set parallelism. Using systematic analysis, a theoretical model has been developed for the parallel implementation. The model is used to find the optimal mapping to minimize the training time for large backpropagation neural networks. The model has been validated experimentally on several well known benchmark problems. Use of genetic algorithms for optimizing the performance of the parallel implementations is described. Guidelines for efficient parallel implementations are highlighted.

рд░реЗрдЯрд┐рдВрдЧ рдФрд░ рд╕рдореАрдХреНрд╖рд╛рдПрдВ

5.0
1 рд╕рдореАрдХреНрд╖рд╛

рдЗрд╕ рдИ-рдмреБрдХ рдХреЛ рд░реЗрдЯрд┐рдВрдЧ рджреЗрдВ

рд╣рдореЗрдВ рдЕрдкрдиреА рд░рд╛рдп рдмрддрд╛рдПрдВ.

рдкрдарди рдЬрд╛рдирдХрд╛рд░реА

рд╕реНрдорд╛рд░реНрдЯрдлрд╝реЛрди рдФрд░ рдЯреИрдмрд▓реЗрдЯ
Android рдФрд░ iPad/iPhone рдХреЗ рд▓рд┐рдП Google Play рдХрд┐рддрд╛рдмреЗрдВ рдРрдкреНрд▓рд┐рдХреЗрд╢рди рдЗрдВрд╕реНрдЯреЙрд▓ рдХрд░реЗрдВ. рдпрд╣ рдЖрдкрдХреЗ рдЦрд╛рддреЗ рдХреЗ рд╕рд╛рде рдЕрдкрдиреЗ рдЖрдк рд╕рд┐рдВрдХ рд╣реЛ рдЬрд╛рддрд╛ рд╣реИ рдФрд░ рдЖрдкрдХреЛ рдХрд╣реАрдВ рднреА рдСрдирд▓рд╛рдЗрди рдпрд╛ рдСрдлрд╝рд▓рд╛рдЗрди рдкрдврд╝рдиреЗ рдХреА рд╕реБрд╡рд┐рдзрд╛ рджреЗрддрд╛ рд╣реИ.
рд▓реИрдкрдЯреЙрдк рдФрд░ рдХрдВрдкреНрдпреВрдЯрд░
рдЖрдк рдЕрдкрдиреЗ рдХрдВрдкреНрдпреВрдЯрд░ рдХреЗ рд╡реЗрдм рдмреНрд░рд╛рдЙрдЬрд╝рд░ рдХрд╛ рдЙрдкрдпреЛрдЧ рдХрд░рдХреЗ Google Play рдкрд░ рдЦрд░реАрджреА рдЧрдИ рдСрдбрд┐рдпреЛ рдХрд┐рддрд╛рдмреЗрдВ рд╕реБрди рд╕рдХрддреЗ рд╣реИрдВ.
eReaders рдФрд░ рдЕрдиреНрдп рдбрд┐рд╡рд╛рдЗрд╕
Kobo рдИ-рд░реАрдбрд░ рдЬреИрд╕реА рдИ-рдЗрдВрдХ рдбрд┐рд╡рд╛рдЗрд╕реЛрдВ рдкрд░ рдХреБрдЫ рдкрдврд╝рдиреЗ рдХреЗ рд▓рд┐рдП, рдЖрдкрдХреЛ рдлрд╝рд╛рдЗрд▓ рдбрд╛рдЙрдирд▓реЛрдб рдХрд░рдХреЗ рдЙрд╕реЗ рдЕрдкрдиреЗ рдбрд┐рд╡рд╛рдЗрд╕ рдкрд░ рдЯреНрд░рд╛рдВрд╕рдлрд╝рд░ рдХрд░рдирд╛ рд╣реЛрдЧрд╛. рдИ-рд░реАрдбрд░ рдкрд░ рдХрд╛рдо рдХрд░рдиреЗ рд╡рд╛рд▓реА рдлрд╝рд╛рдЗрд▓реЛрдВ рдХреЛ рдИ-рд░реАрдбрд░ рдкрд░ рдЯреНрд░рд╛рдВрд╕рдлрд╝рд░ рдХрд░рдиреЗ рдХреЗ рд▓рд┐рдП, рд╕рд╣рд╛рдпрддрд╛ рдХреЗрдВрджреНрд░ рдХреЗ рдирд┐рд░реНрджреЗрд╢реЛрдВ рдХрд╛ рдкрд╛рд▓рди рдХрд░реЗрдВ.

рд╕реАрд░реАрдЬрд╝ рдЬрд╛рд░реА рд░рдЦреЗрдВ

рдорд┐рд▓рддреА-рдЬреБрд▓рддреА рдИ-рдмреБрдХ