Классификация по сфере применения

По сфере применения информационные системы подразделяются на четыре группы:

• Системы обработки транзакций;

• Системы принятия решений;

• Информационно- справочные системы;

• Офисные информационные системы.

Оперативная обработка транзакций (OLTP) преобладает в информационных системах организационного управления для отражения актуального состояния предметной области в любой момент времени. Пакетная обработка занимает весьма ограниченную часть.

Для систем OLTP характерен регулярный интенсивный поток довольно простых транзакций, играющих роль заказов, платежей, запросов и т.д. Важнейшими требованиями для OLTP являются:

• Высокая производительность обработки транзакций;

• Гарантированная доставка информации при удаленном доступе к БД по телекоммуникациям.

Системы поддержки решений (DSS) – представляют собой другой тип информационных систем, в которых с помощью довольно сложных запросов производится отбор и анализ данных по временным, географическим и другим показателям.

Системы поддержки принятия решений (DSS) - это компьютерные системы, почти всегда интерактивные, разработанные, чтобы помочь менеджеру (или руководителю) в принятии решений. DSS включают и данные, и модели, чтобы помочь менеджеру, принимающему решения, решить проблемы, особенно те, которые плохо формализованы. Данные часто извлекаются из системы диалоговой обработки запросов или базы данных. Модель, может быть, простой типа "доходы и убытки", чтобы вычислить прибыль при некоторых предположениях, или комплексной типа оптимизационной модели для расчета загрузки для каждой машины в цехе. DSS и многие из систем не всегда оправдываются традиционным подходом стоимость - прибыль; для этих систем многие из выгод неосязаемы, типа более глубокого принятия решения и лучшего понимания данных.

Необычайно популярный тип DSS - в виде генератора финансового отчета, с помощью электронной таблицы типа Lotus 1-2-3 или Microsoft (создаются модели, чтобы прогнозировать различные элементы организации или финансового состояния). В качестве данных используются идущие финансовые отчеты организации. Начальная модель включает личные предположения относительно будущих трендов в категориях расхода и дохода. После рассмотрения результатов базовой модели DSS проводит ряд исследований типа "что, если", изменяя одно или все предположения, чтобы определить их влияние на исходное состояние.

Пользователь взаимодействует с системой через пользовательский интерфейс, выбирая частную модель и на основе данных, которые нужно использовать, а затем DSS представляет результаты пользователю через тот же самый пользовательский интерфейс.

Системы поддержки работы группы (Group Support Systems - GSS) – важный вариант DSS, в котором система разработана, чтобы поддержать группу, а не индивидуума. GSS , иногда называемые системами поддержки принятия решений группы, или системами электронных встреч, стремятся воспользоваться преимуществом возможностей группы, чтобы находить лучшие решения, чем решения личностей, действующих отдельно. Это специализированный тип группового программного обеспечения, которое специально предназначено для поддержки встреч.

Как вспомогательный аппарат систем поддержки решений рассматривается "Добыча данных" (Data Mining), которая использует ряд технологий (типа деревьев решений и нейронных сетей), чтобы искать или "добывать" маленькие "самородки" информации из крупных объемов данных, запасенных в базе данных организации. Добыча данных, которая иногда рассматривается как вспомогательный аппарат систем поддержки принятия решений, является особенно полезной, когда организация имеет большие объемы данных в базе. Понятие "добыча данных" не ново, хотя название стало популярным только в конце 1990 г. По крайней мере, в течение двух десятилетий много больших организаций использовали внутренних или внешних аналитиков, часто называемых специалистами управления, пробуя распознавать тренды или создавать модели в больших массивах данных, используя методы статистики, математики и искусственного интеллекта. С развитием крупномасштабных баз данных и недорогих, мощных процессоров возобновился интерес к тому, что названо в последние годы "добычей данных".

Наряду с возобновлением интереса появился ряд высокопроизводительных и относительно легких в использовании пакетов программ, добывающих коммерческие данные.

Какие методы решения или подходы используются при "добыче данных"? Фирма "KnowledgeSeeker" использует только одну технологию -дерево решений. Это структура в виде дерева, полученная из данных, чтобы представить наборы решений, приводящих к различным результатам. Когда создан новый набор решений в виде информации относительно частного покупателя, дерево решений предсказывает результат. Нейронные сети, область искусственного интеллекта включены в пакеты программ Marksman , Intelligent Miner и Darwin (последние два также используют дерево решений). Другие популярные технологии включают правила предположений, извлечение из правил "если, то", основанные на статистическом значении; сортировку записей, основанных на наиболее близких им в базе данных; генетические алгоритмы, т.е. методы оптимизации, основанные на концепциях генетической комбинации, мутации и естественного выбора.

Конечно, менеджеру более важно то, что может быть выполнено с "добычей данных", чем использованные в технологии решения. Ниже даны типичные приложения обработки данных. Для бизнеса любого вида эти приложения хороши, если смогут увеличить прибыль организации. Большинство этих приложений сосредоточивается на извлечении ценной информации для клиентов:

• Идентифицирует общие характеристики клиентов, которые покупают одинаковые изделия у вашей компании. Предсказывает, какие клиенты, вероятно, могут оставить вашу компанию и уйти к конкуренту;

• Идентифицирует тех, чьи действия, наиболее вероятно, будут мошенническими;

• Идентифицирует, какие проспекты должны быть включены в список рассылки, чтобы получить самую высокую эффективность;

• Показывает индивидуумов, обращающихся к Web site , как наиболее интересных для наблюдения;

• Предполагает, какие изделия или услуги обычно приобретаются вместе.

Искусственный интеллект (Artificial Intelligence)

Идея искусственного интеллекта ( AI ), т.е. изучение того, как компьютеры могут "думать", имеет приблизительно 30-летний возраст, но только недавно появились достаточно мощные компьютеры, чтобы делать коммерчески привлекательными AI-приложения. AI-исследования развились в пять отдельных, но связанных областей: естественные языки, робототехника, системы ощущения (системы зрения и слуха), экспертные системы и нейронные сети.

Заключительные две ветви AI наиболее пригодны для поддержки управления. Экспертные системы - это системы, которые используют логику принятия решения человеческого эксперта. Самая новая отрасль AI - нейронные сети, которые устроены по аналогии с тем, как работает человеческая нервная система, но фактически используют статистический анализ, чтобы распознать модели из большого количества информации посредством адаптивного изучения.

Экспертные системы (Expert Systems)

Как применяет логику эксперта компьютерная система? Чтобы спроектировать экспертную систему, специалист, называемый инженером знания (специально подготовленный системный аналитик), очень тесно работает с одним или большим количеством экспертов в изучаемой области. Инженеры знания пробуют узнавать все относительно способа, которым эксперт принимает решения. Если строится экспертная система для планирования оборудования, то инженер знания работает с опытными планировщиками оборудования, чтобы видеть, как они работают. Знание, полученное инженером знания, затем загружается в компьютерную систему, в специализированном формате, в блоке, названном базой знаний . Эта база знаний содержит правила и заключения, которые используются в принятии решений, - параметры, или факты, необходимые для решения.

Другие главные фрагменты экспертной системы - создатель заключения и интерфейс пользователя. Создатель заключения - логический каркас, который автоматически проводит линию рассуждения и который обеспечен правилами заключения и параметрами, вовлеченными в решение. Таким образом, один и тот же создатель заключения может использоваться для многих различных экспертных систем с различной базой знаний.

Интерфейс пользователя - блок, используемый конечным пользователем, например неопытным планировщиком оборудования. Идеальный интерфейс - очень дружественный. Другие блоки включают подсистему объяснения, чтобы разъяснять доводы, что система движется в направлении решения, подсистему накопления знания, чтобы помочь инженеру знания в регистрации правил заключения и параметров в базе знаний, рабочую область, чтобы использовать компьютер, поскольку решение сделано.

Примеры экспертных систем

Классический пример экспертной системы - MYCIN , она была создана в "Stanford University" в середине 70-х годов, чтобы диагностировать обращения по болезням крови и менингита. "General Electric" развивала экспертную систему CATS -1, чтобы диагностировать механические проблемы в дизельных локомотивах, фирма AT&T разработала АСЕ для обнаружения повреждений в телефонных кабелях. Международная нефтяная компания "Schlumberger" развивала экспертную систему, названную Dipmeter, применяемую для подачи сигналов, когда сверло заклинивает и когда сверление идет нормально. Эти примеры относятся к проблемам диагностики ситуаций и предписывают соответствующие действия, потому что эксперты не всегда присутствуют, когда возникают проблемы на производстве.

Некоторые экспертные системы специализируются в просеивании массивов наборов правил или других предписаний, иногда называемых основанными на случаях аргументации. "Human Service Agency" из Merced County (Калифорния) использует экспертную систему по имени Magic, которая включает 6000 правительственных постановлений в отношении благосостояния, продовольственных талонов, медицины, поощрения забот и т.д. Magic определяет, соответствует ли претендент пользе, и затем вычисляет тип и количество выгод. Полный процесс от заявления до заключительного решения теперь составляет примерно три дня, в то время как до этого он составлял три месяца. Кроме того, клерки, которые обрабатывают приложения, не требуют глубокого обучения, которое прежде требовалось. Все, что они должны уметь делать, это проводить претендента шаг за шагом через ряд вопросов, задаваемых компьютером.

Организация Объединенных Наций развила подобную экспертную систему, названную Entitlements System, для объяснения комплексных норм жалованья для всех служащих Секретариата ООН во всем мире. Плата служащих ООН определяется на основе жалованья плюс прибавки, а прибавки включают выгоды, формируемые на месте работы, плюс другие договорные соглашения. Правила и нормы для прибавок занимают три издания по несколько сотен страниц каждый. Используя PowerMode - программное обеспечение из IntelliCorp, ООН построила экспертную систему, которая определяет и применяет прибавки автоматически при использовании интерактивной базы знаний, содержащей правила прибавок. Экспертная система облагает налогом прибавки всякий раз, когда происходят изменения в статусе служащего.

Компания "Credit Clearing House" (CCH) развила экспертную систему, чтобы ответить на запросы абонентов, разыскивающих информацию относительно предпринимателей в швейной промышленности. Экспертная система CCH включает приблизительно 800 правил, и ее развитие стоит 1 млн. долл. Когда абонент вызывает запрос информации относительно кредита бизнеса, система анализирует историю оплаты, финансовый отчет, эффективность бизнеса, оценивает кредитоспособность и рекомендации и устанавливает рекомендуемый лимит кредитования в долларах.

Планирование - другая важная область для экспертных систем. Экспертные системы, используемые в настоящее время, включают отправку грузовиков и систему планирования, которая определяет последовательность остановок на маршруте, чтобы обеспечить лучшее обслуживание и промышленную систему проектирования, которая организовывает машины и операторов, чтобы обеспечить эффективный поток материалов через фабрику и использование ресурсов. "American Airlines" использует экспертную систему МОСА (Maintenance Operation Center Advisor), которая установлена на компьютере Macintosh, для планирования текущего технического обслуживания для всех 622 самолетов флота American. МОСА включает 5000 правил, которые были получены от 30 самолетных техников. Самолет должен проходить текущее техническое обслуживание через каждые 60 ч полета, и система МОСА должна выдать график, который выполняет это правило, охватывает маршруты всей Америки и сокращает пустые полеты самолетов к региональным центрам обслуживания. По американским оценкам, МОСА сохранила компании половину миллиона долларов в год по сравнению с планировщиками-людьми.

Другой пример планирования: фирма General Motors создала Expert Scheduling System, или ESS, для формирования жизнеспособных графиков производства. Чтобы построить систему, GM использовала структуру экспертной системы IntelliCorp's Knowledge Engineering Enviroment и язык программирования Lisp. ESS включает эвристику, которая была заложена опытным фабричным планировщиком в системе и связывает в GM управляемое компьютером производство и окружающую среду так, чтобы оперативная информация завода использовалась для формирования графика работы завода.

Нейронные сети (Neural Networks)

В то время как экспертные системы пробуют ввести опыт людей в компьютерную программу, нейронные сети пытаются создать значимые модели из большого количества данных. Нейронные сети могут распознавать модели, слишком не ясные для людей, и адаптировать их при получении новой информации.

Ключевая характеристика нейронных сетей в том, что они обучаются. Программе нейронных сетей сначала дается набор данных, состоящих из многих переменных, связанных с большим количеством случаев, или исходов, в которых результаты известны. Программа анализирует данные и обрабатывает все корреляции, а затем выбирает набор переменных, которые строго соотнесены с частными известными результатами, как начальная модель. Эта начальная модель используется, чтобы попробовать предсказать результаты различных случаев, а предсказанные результаты сравниваются с известными результатами. Базируясь на этом сравнении, программа изменяет модель, регулируя параметры переменных или даже заменяя их. Этот процесс программа нейронных сетей повторяет много раз, стремясь улучшить прогнозирующую способность при наладке модели. Когда в этом итерационном подходе дальнейшее усовершенствование исчерпывается, программа готова делать предсказания для будущих случаев.

Как только станет доступным новое большое количество случаев, эти данные также вводятся в нейронную сеть, и модель еще раз корректируется. Нейронная сеть обучается в основном относительно причинно-следственных моделей из этих дополнительных данных, и прогнозирующая способность улучшается.

Коммерческие программы нейронных сетей (фактически это конструкции) доступны за приемлемую цену, но наиболее трудная часть создания и применения нейронных сетей - частый сбор данных и трудности обеспечения данных. Однако возрастает число развертывающихся приложений. Bank of America использует нейронную сеть, чтобы оценить коммерческие заявки на получение ссуды. "American Express" использует нейронную систему, чтобы читать почерк на кредитной карте; штат Вайоминг — чтобы читать заполненные от руки налоговые формы. "Oil giant Arco" и "Техасе" используют нейронные сети, чтобы помочь обнаружить места газовых и нефтяных месторождений под поверхностью земли. "Mellon Bank" работает над нейронной системой, которая ускорит распознавание мошеннических подделок кредитных карточек, контролируя такие показатели, как частота использования кредитной карточки и размеры расходов относительно предельного размера кредита. Журнал "Spiegel", который создает каталоги для продажи по почте, использует нейронную сеть как способ сокращения списка рассылки, чтобы устранить тех, кто, маловероятно, закажет журнал снова.

В 80-е и 90-е годы экспертные системы и приложения нейронной сети слишком рекламировались в популярной прессе как решающие большинство проблем, стоящих перед менеджерами. В конце 20-го столетия индустрия приняла более реалистическую перспективу использования AI-приложений: AI - не панацея, но имеется значительное число потенциально ценных приложений для AI-методов. Каждое потенциальное применение должно быть тщательно оценено. Результатом этих тщательных оценок был устойчивый рост, а не вспышка в развитии и использовании экспертных систем и нейронных сетей, чтобы помочь предпринимателям в проблемных ситуациях найти лучшие полезные решения.

Проблемы выбора аппаратно-программной платформы, соответствующей потребностям прикладной области

Выбор аппаратной платформы и конфигурации системы представляет собой чрезвычайно сложную задачу. Это связано, в частности, с характером прикладных систем, который в значительной степени может определять рабочую нагрузку вычислительного комплекса в целом. Однако часто оказывается просто трудно с достаточной точностью предсказать саму нагрузку, особенно в случае, если система должна обслуживать несколько групп разнородных по своим потребностям пользователей. Например, иногда даже бессмысленно говорить, что для каждых N пользователей необходимо в конфигурации сервера иметь один процессор, поскольку для некоторых прикладных систем, в частности, для систем из области механических и электронных САПР, может потребоваться 2-4 процессора для обеспечения запросов одного пользователя. С другой стороны, даже одного процессора может вполне хватить для поддержки 15-40 пользователей, работающих с прикладным пакетом Oracle Financial. Другие прикладные системы могут оказаться еще менее требовательными.

Но следует помнить, что даже если рабочую нагрузку удается описать с достаточной точностью, обычно скорее можно только выяснить, какая конфигурация не справится с данной нагрузкой, чем с уверенностью сказать, что данная конфигурация системы будет обрабатывать заданную нагрузку, если только отсутствует определенный опыт работы с приложением.

Обычно рабочая нагрузка существенно определяется "типом использования" системы. Например, можно выделить серверы NFS, серверы управления базами данных и системы, работающие в режиме разделения времени. Эти категории систем перечислены в порядке увеличения их сложности. Как правило, серверы СУБД значительно более сложны, чем серверы NFS, а серверы разделения времени, особенно обслуживающие различные категории пользователей, являются наиболее сложными для оценки. К счастью, существует ряд упрощающих факторов.

Во-первых, как правило, нагрузка на систему в среднем сглаживается, особенно при наличии большого коллектива пользователей (хотя почти всегда имеют место предсказуемые пики). Например, известно, что нагрузка на систему достигает пиковых значений через 1-1.5 часа после начала рабочего дня или окончания обеденного перерыва и резко падает во время обеденного перерыва. С большой вероятностью нагрузка будет нарастать к концу месяца, квартала или года.

Во-вторых, универсальный характер большинства наиболее сложных для оценки систем - систем разделения времени, предполагает и большое разнообразие, выполняемых на них приложений, которые в свою очередь, как правило, стараются загрузить различные части системы. Далеко не все приложения интенсивно используют процессорные ресурсы, и не все из них связаны с интенсивным вводом/выводом. Поэтому смесь таких приложений на одной системе может обеспечить достаточно равномерную загрузку всех ресурсов. Естественно неправильно подобранная смесь может дать совсем противоположенный эффект.

Все, кто сталкивается с задачей выбора конфигурации системы, должны начинать с определения ответов на два главных вопроса: какой сервис должен обеспечиваться системой и какой уровень сервиса может обеспечить данная конфигурация. Имея набор целевых показателей производительности конечного пользователя и стоимостных ограничений, необходимо спрогнозировать возможности определенного набора компонентов, которые включаются в конфигурацию системы. Любой, кто попробовал это сделать, знает, что подобная оценка сложна и связана с неточностью. Почему оценка конфигурации системы так сложна? Некоторые из причин перечислены ниже:

Подобная оценка прогнозирует будущее: предполагаемую комбинацию устройств, будущее использование программного обеспечения, будущих пользователей.

Сами конфигурации аппаратных и программных средств сложны, связаны с определением множества разнородных по своей сути компонентов системы, в результате чего сложность быстро увеличивается. Несколько лет назад существовала только одна вычислительная парадигма: мейнфрейм с терминалами. В настоящее время по выбору пользователя могут использоваться несколько вычислительных парадигм с широким разнообразием возможных конфигураций системы для каждой из них. Каждое новое поколение аппаратных и программных средств обеспечивает настолько больше возможностей, чем их предшественники, что относительно новые представления об их работе постоянно разрушаются.

Скорость технологических усовершенствований во всех направлениях разработки компьютерной техники (аппаратных средств, функциональной организации систем, операционных систем, ПО СУБД, ПО "среднего" слоя (middleware)) уже очень высокая, и постоянно растет. Ко времени, когда какое-либо изделие широко используется и хорошо изучено, оно часто рассматривается уже как устаревшее.

Доступная потребителю информация о самих системах, операционных системах, программном обеспечении инфраструктуры (СУБД и мониторы обработки транзакций) как правило, носит очень общий характер. Структура аппаратных средств, на базе которых работают программные системы, стала настолько сложной, что эксперты в одной области редко являются таковыми в другой.

Информация о реальном использовании систем редко является точной. Более того, пользователи всегда находят новые способы использования вычислительных систем, как только становятся доступными новые возможности.

При стольких неопределенностях просто удивительно, что многие конфигурации систем работают достаточно хорошо. Оценка конфигурации все еще остается некоторым видом искусства, но к ней можно подойти с научных позиций. Намного проще решить, что определенная конфигурация не сможет обрабатывать определенные виды нагрузки, чем определить с уверенностью, что нагрузка может обрабатываться внутри определенных ограничений производительности. Более того, реальное использование систем показывает, что имеет место тенденция заполнения всех доступных ресурсов. Как следствие, системы, даже имеющие некоторые избыточные ресурсы, со временем не будут воспринимать дополнительную нагрузку.

Для выполнения анализа конфигурации, система (под которой понимается весь комплекс компьютеров, периферийных устройств, сетей и программного обеспечения) должна рассматриваться как ряд соединенных друг с другом компонентов. Например, сети состоят из клиентов, серверов и сетевой инфраструктуры. Сетевая инфраструктура включает среду (часто нескольких типов) вместе с мостами, маршрутизаторами и системой сетевого управления, поддерживающей ее работу. В состав клиентских систем и серверов входят центральные процессоры, иерархия памяти, шин, периферийных устройств и ПО. Ограничения производительности некоторой конфигурации по любому направлению (например, в части организации дискового ввода/вывода) обычно могут быть предсказаны исходя из анализа наиболее слабых компонентов.

Поскольку современные комплексы почти всегда включают несколько работающих совместно систем, точная оценка полной конфигурации требует ее рассмотрения как на макроскопическом уровне (уровне сети), так и на микроскопическом уровне (уровне компонент или подсистем).

Эта же методология может быть использована для настройки системы после ее инсталляции: настройка системы и сети выполняются, как правило, после предварительной оценки и анализа узких мест. Более точно, настройка конфигурации представляет собой процесс определения наиболее слабых компонентов в системе и устранения этих узких мест.

Следует отметить, что выбор той или иной аппаратной платформы и конфигурации определяется и рядом общих требований, которые предъявляются к характеристикам современных вычислительных систем. К ним относятся:

отношение стоимость/производительность;

надежность и отказоустойчивость;

масштабируемость;

совместимость и мобильность программного обеспечения.

Отношение стоимость/производительность. Появление любого нового направления в вычислительной технике определяется требованиями компьютерного рынка. Поэтому у разработчиков компьютеров нет одной единственной цели. Большая универсальная вычислительная машина (мейнфрейм) или суперкомпьютер стоят дорого. Для достижения поставленных целей при проектировании высокопроизводительных конструкций приходится игнорировать стоимостные характеристики. Суперкомпьютеры фирмы Cray Research и высокопроизводительные мейнфреймы компании IBM относятся именно к этой категории компьютеров.

Другим крайним примером может служить низкостоимостная конструкция ПК, где производительность принесена в жертву для достижения низкой стоимости. К этому направлению относятся персональные компьютеры различных клонов IBM PC. Между этими двумя крайними направлениями находятся конструкции, основанные на отношении стоимость/производительность, в которых, разработчики находят баланс между стоимостными параметрами и производительностью. Типичными примерами такого рода компьютеров являются миникомпьютеры и рабочие станции.

Для сравнения различных компьютеров между собой обычно используются стандартные методики измерения производительности. Эти методики позволяют разработчикам и пользователям использовать полученные в результате испытаний количественные показатели для оценки тех или иных технических решений, и, в конце концов, именно производительность и стоимость дают пользователю рациональную основу для решения вопроса, какой компьютер выбрать.

Надежность и отказоустойчивость. Важнейшей характеристикой вычислительных систем является надежность. Повышение надежности основано на принципе предотвращения неисправностей путем снижения интенсивности отказов и сбоев за счет применения электронных схем и компонентов с высокой и сверхвысокой степенью интеграции, снижения уровня помех, облегченных режимов работы схем, обеспечение тепловых режимов их работы, а также за счет совершенствования методов сборки аппаратуры.

Отказоустойчивость - это такое свойство вычислительной системы, которое обеспечивает ей, как логической машине, возможность продолжения действий, заданных программой, после возникновения неисправностей. Введение отказоустойчивости требует избыточного аппаратного и программного обеспечения. Направления, связанные с предотвращением неисправностей и с отказоустойчивостью, - основные в проблеме надежности. Концепции параллельности и отказоустойчивости вычислительных систем естественным образом связаны между собой, поскольку в обоих случаях требуются дополнительные функциональные компоненты. Поэтому, собственно, на параллельных вычислительных системах достигается как наиболее высокая производительность, так и, во многих случаях, очень высокая надежность. Имеющиеся ресурсы избыточности в параллельных системах могут гибко использоваться как для повышения производительности, так и для повышения надежности. Структура многопроцессорных и многомашинных систем приспособлена к автоматической реконфигурации и обеспечивает возможность продолжения работы системы после возникновения неисправностей.

Следует помнить, что понятие надежности включает не только аппаратные средства, но и программное обеспечение. Главной целью повышения надежности систем является целостность хранимых в них данных.

Масштабируемость. Масштабируемость представляет собой возможность наращивания числа и мощности процессоров, объемов оперативной и внешней памяти и других ресурсов вычислительной системы. Масштабируемость должна обеспечиваться архитектурой и конструкцией компьютера, а также соответствующими средствами программного обеспечения.

Добавление каждого нового процессора в действительно масштабируемой системе должно давать прогнозируемое увеличение производительности и пропускной способности при приемлемых затратах. Одной из основных задач при построении масштабируемых систем является минимизация стоимости расширения компьютера и упрощение планирования. В идеале добавление процессоров к системе должно приводить к линейному росту ее производительности. Однако это не всегда так. Потери производительности могут возникать, например, при недостаточной пропускной способности шин из-за возрастания трафика между процессорами и основной памятью, а также между памятью и устройствами ввода/вывода. В действительности реальное увеличение производительности трудно оценить заранее, поскольку оно в значительной степени зависит от динамики поведения прикладных задач.

Возможность масштабирования системы определяется не только архитектурой аппаратных средств, но зависит от заложенных свойств программного обеспечения.

Масштабируемость программного обеспечения затрагивает все его уровни от простых механизмов передачи сообщений до работы с такими сложными объектами как мониторы транзакций и вся среда прикладной системы. В частности, программное обеспечение должно минимизировать трафик межпроцессорного обмена, который может препятствовать линейному росту производительности системы. Аппаратные средства (процессоры, шины и устройства ввода/вывода) являются только частью масштабируемой архитектуры, на которой программное обеспечение может обеспечить предсказуемый рост производительности. Важно понимать, что простой переход, например, на более мощный процессор может привести к перегрузке других компонентов системы. Это означает, что действительно масштабируемая система должна быть сбалансирована по всем параметрам.

Совместимость и мобильность программного обеспечения. Концепция программной совместимости впервые в широких масштабах была применена разработчиками системы IBM/360. Основная задача при проектировании всего ряда моделей этой системы заключалась в создании такой архитектуры, которая была бы одинаковой с точки зрения пользователя для всех моделей системы независимо от цены и производительности каждой из них. Огромные преимущества такого подхода, позволяющего сохранять существующий задел программного обеспечения при переходе на новые (как правило, более производительные) модели были быстро оценены как производителями компьютеров, так и пользователями и, начиная с этого времени, практически все фирмы-поставщики компьютерного оборудования взяли на вооружение эти принципы, поставляя серии совместимых компьютеров. Следует заметить, однако, что со временем даже самая передовая архитектура неизбежно устаревает и возникает потребность внесения радикальных изменений архитектуру и способы организации вычислительных систем.

В настоящее время одним из наиболее важных факторов, определяющих современные тенденции в развитии информационных технологий, является ориентация компаний-поставщиков компьютерного оборудования на рынок прикладных программных средств. Это объясняется прежде всего тем, что для конечного пользователя в конце концов важно программное обеспечение, позволяющее решить его задачи, а не выбор той или иной аппаратной платформы. Переход от однородных сетей программно совместимых компьютеров к построению неоднородных сетей, включающих компьютеры разных фирм-производителей, в корне изменил и точку зрения на саму сеть: из сравнительно простого средства обмена информацией она превратилась в средство интеграции отдельных ресурсов - мощную распределенную вычислительную систему, каждый элемент которой (сервер или рабочая станция) лучше всего соответствует требованиям конкретной прикладной задачи.

Этот переход выдвинул ряд новых требований.

Прежде всего, такая вычислительная среда должна позволять гибко менять количество и состав аппаратных средств и программного обеспечения в соответствии с меняющимися требованиями решаемых задач.

Во-вторых, она должна обеспечивать возможность запуска одних и тех же программных систем на различных аппаратных платформах, т.е. обеспечивать мобильность программного обеспечения.

В третьих, эта среда должна гарантировать возможность применения одних и тех же человеко-машинных интерфейсов на всех компьютерах, входящих в неоднородную сеть. В условиях жесткой конкуренции производителей аппаратных платформ и программного обеспечения сформировалась концепция открытых систем, представляющая собой совокупность стандартов на различные компоненты вычислительной среды, предназначенных для обеспечения мобильности программных средств в рамках неоднородной, распределенной вычислительной системы.

Одним из вариантов моделей открытой среды является модель OSE (Open System Environment), предложенная комитетом IEEE POSIX. На основе этой модели национальный институт стандартов и технологии США выпустил документ "Application Portability Profile (APP). The U.S. Government's Open System Environment Profile OSE/1 Version 2.0", который определяет рекомендуемые для федеральных учреждений США спецификации в области информационных технологий, обеспечивающие мобильность системного и прикладного программного обеспечения. Все ведущие производители компьютеров и программного обеспечения в США в настоящее время придерживаются требований этого документа.