Perspectives of Neural-Symbolic Integration

ยท
ยท Springer
เช‡-เชชเซเชธเซเชคเช•
319
เชชเซ‡เชœ
เชฐเซ‡เชŸเชฟเช‚เช— เช…เชจเซ‡ เชฐเชฟเชตเซเชฏเซ‚ เชšเช•เชพเชธเซ‡เชฒเชพ เชจเชฅเซ€ย เชตเชงเซ เชœเชพเชฃเซ‹

เช† เช‡-เชชเซเชธเซเชคเช• เชตเชฟเชถเซ‡

The human brain possesses the remarkable capability of understanding, - terpreting, and producing human language, thereby relying mostly on the left hemisphere. The ability to acquire language is innate as can be seen from d- orders such as speci?c language impairment (SLI), which manifests itself in a missing sense for grammaticality. Language exhibits strong compositionality and structure. Hence biological neural networks are naturally connected to processing and generation of high-level symbolic structures. Unlike their biological counterparts, arti?cial neural networks and logic do not form such a close liason. Symbolic inference mechanisms and statistical machine learning constitute two major and very di?erent paradigms in ar- ?cial intelligence which both have their strengths and weaknesses: Statistical methods o?er ?exible and highly e?ective tools which are ideally suited for possibly corrupted or noisy data, high uncertainty and missing information as occur in everyday life such as sensor streams in robotics, measurements in medicine such as EEG and EKG, ?nancial and market indices, etc. The m- els, however, are often reduced to black box mechanisms which complicate the integration of prior high level knowledge or human inspection, and they lack theabilitytocopewitharichstructureofobjects,classes,andrelations. S- bolic mechanisms, on the other hand, are perfectly applicative for intuitive human-machine interaction, the integration of complex prior knowledge, and well founded recursive inference. Their capability of dealing with uncertainty andnoiseandtheire?ciencywhenaddressingcorruptedlargescalereal-world data sets, however, is limited. Thus, the inherent strengths and weaknesses of these two methods ideally complement each other.

เช† เช‡-เชชเซเชธเซเชคเช•เชจเซ‡ เชฐเซ‡เชŸเชฟเช‚เช— เช†เชชเซ‹

เชคเชฎเซ‡ เชถเซเช‚ เชตเชฟเชšเชพเชฐเซ‹ เช›เซ‹ เช…เชฎเชจเซ‡ เชœเชฃเชพเชตเซ‹.

เชฎเชพเชนเชฟเชคเซ€ เชตเชพเช‚เชšเชตเซ€

เชธเซเชฎเชพเชฐเซเชŸเชซเซ‹เชจ เช…เชจเซ‡ เชŸเซ…เชฌเซเชฒเซ‡เชŸ
Android เช…เชจเซ‡ iPad/iPhone เชฎเชพเชŸเซ‡ Google Play Books เชเชช เช‡เชจเซเชธเซเชŸเซ‰เชฒ เช•เชฐเซ‹. เชคเซ‡ เชคเชฎเชพเชฐเชพ เชเช•เชพเช‰เชจเซเชŸ เชธเชพเชฅเซ‡ เช‘เชŸเซ‹เชฎเซ…เชŸเชฟเช• เชฐเซ€เชคเซ‡ เชธเชฟเช‚เช• เชฅเชพเชฏ เช›เซ‡ เช…เชจเซ‡ เชคเชฎเชจเซ‡ เชœเซเชฏเชพเช‚ เชชเชฃ เชนเซ‹ เชคเซเชฏเชพเช‚ เชคเชฎเชจเซ‡ เช‘เชจเชฒเชพเช‡เชจ เช…เชฅเชตเชพ เช‘เชซเชฒเชพเช‡เชจ เชตเชพเช‚เชšเชตเชพเชจเซ€ เชฎเช‚เชœเซ‚เชฐเซ€ เช†เชชเซ‡ เช›เซ‡.
เชฒเซ…เชชเชŸเซ‰เชช เช…เชจเซ‡ เช•เชฎเซเชชเซเชฏเซเชŸเชฐ
Google Play เชชเชฐ เช–เชฐเซ€เชฆเซ‡เชฒ เช‘เชกเชฟเช“เชฌเซเช•เชจเซ‡ เชคเชฎเซ‡ เชคเชฎเชพเชฐเชพ เช•เชฎเซเชชเซเชฏเซเชŸเชฐเชจเชพ เชตเซ‡เชฌ เชฌเซเชฐเชพเช‰เชเชฐเชจเซ‹ เช‰เชชเชฏเซ‹เช— เช•เชฐเซ€เชจเซ‡ เชธเชพเช‚เชญเชณเซ€ เชถเช•เซ‹ เช›เซ‹.
eReaders เช…เชจเซ‡ เช…เชจเซเชฏ เชกเชฟเชตเชพเช‡เชธ
Kobo เช‡-เชฐเซ€เชกเชฐ เชœเซ‡เชตเชพ เช‡-เช‡เช‚เช• เชกเชฟเชตเชพเช‡เชธ เชชเชฐ เชตเชพเช‚เชšเชตเชพ เชฎเชพเชŸเซ‡, เชคเชฎเชพเชฐเซ‡ เชซเชพเช‡เชฒเชจเซ‡ เชกเชพเช‰เชจเชฒเซ‹เชก เช•เชฐเซ€เชจเซ‡ เชคเชฎเชพเชฐเชพ เชกเชฟเชตเชพเช‡เชธ เชชเชฐ เชŸเซเชฐเชพเชจเซเชธเชซเชฐ เช•เชฐเชตเชพเชจเซ€ เชœเชฐเซ‚เชฐ เชชเชกเชถเซ‡. เชธเชชเซ‹เชฐเซเชŸเซ‡เชก เช‡-เชฐเซ€เชกเชฐ เชชเชฐ เชซเชพเช‡เชฒเซ‹ เชŸเซเชฐเชพเชจเซเชธเซเชซเชฐ เช•เชฐเชตเชพ เชฎเชพเชŸเซ‡ เชธเชนเชพเชฏเชคเชพ เช•เซ‡เชจเซเชฆเซเชฐเชจเซ€ เชตเชฟเช—เชคเชตเชพเชฐ เชธเซ‚เชšเชจเชพเช“ เช…เชจเซเชธเชฐเซ‹.

Barbara Hammer เชฆเซเชตเชพเชฐเชพ เชตเชงเซ

เช†เชจเชพ เชœเซ‡เชตเชพ เชœ เช‡-เชชเซเชธเซเชคเช•เซ‹