elevator controller



Предыдущая | Следующая

elevator controller (контроллер лифта), сущ. Еще один классический пример тупости в проектировании встроенных систем, аналог тостера (см. toaster). В течение 1983 84 годов благодаря стараниям ANSIX3J11 (комитет по стандартизации Си) это был канонический пример действительно бестолковой и к тому же сильно ограниченной по памяти операционной среды. «Вы не можете требовать, чтобы printf(3) йходила в библиотеку исполняющей системы по умолчанию – а вдруг вам придется иметь дело с контроллером лифта?» В нескольких священных войнах (см. holywars) контроллеры лифта служили оружием для обеих воюющих сторон.. ELIZAeffect/э-И:Ъ э-fect'/ (эффект ЭЛИЗЫ) [искусственный интеллект], сущ. Свойственная всем людям тенденция приписывать то или иное значение словам по ассоциации с уже имеющимся у них опытом. Например, в знаке «+» нет ничего магического, что делало бы его особенно удобным для обозначения сложения, но люди сами связывают его с операцией сложения, и поэтому использование знака «+» или слова «плюс» для сложения в языках программирования является положительным примером применения эффекта ELIZA. Знаменитая программа «ELIZA», разработанная доктором Джозефом Уэй-зенбаумом, могла распознавать ключевые слова в фразах своих пациентов-собеседников и на их основе обычной перестановкой ранее услышанных слов строила собственные фразы, адресованные собеседнику, тем самым создавая видимость осмысленной беседы. Имитация была так убедительна, что не раз можно было услышать истории о людях, которые попадались ЭЛИЗЕ на удочку и начинали с ней спорить, обижались и т.п. Такое эмоциональное отношение вполне нормальных людей к беседе с компьютерной программой можно объяснить тем, что они просто приписывали словам ЭЛИЗЫ значение, которое та и не думала (она вообще не могла думать) в них вкладывать. Эффект ЭЛИЗЫ можно назвать Хорошим Делом (см. GoodThing), когда он применяется в языках программирования, но в анализе систем искусственного интеллекта этот эффект всякий раз будет коварно вводить вас в заблуждение. Ср. с ad-hockery; см. также AI-complete.