Выбор математической модели

Модель – вид функции отклика y=f(x1, x2,…,xn).

В теории корреляции ф-цию отклика наз ур-ем регрессии.

Выбрать модель – это значит выбрать вид этой ф-ции и записать её ур-ие. Тогда остается спланировать и провести эксперимент для оценки численных значений коэф-тов этого ур-ия. Для выбора модели строят геометрический аналог функции отклика – поверхность отклика. Геометрическое изображение возможных состояний черного ящика с 2 ходами. Для этого располагать плоскостью с обычной декартовой системой координат. По одной оси в масштабе откладывают значение 1 фактора, а по другой 2. Каждому соответствующему состоянию ящика будет соответствовать т-ка на плоскости. У каждого фактора есть область определения, т.е. существует min и mах возможных значений, м/д которыми он может изменяться непрерывно или дискретно. Если факторы совместимы, то границы образуют на плоскости некоторые прямоугольники, внутри кот. лежат т-ки, соотв-ие состоянию ящика.

рис. Область определения факторов

Чтобы указать значение параметра оптимизации требуется еще 1 ось координат. рис. Поверхность отклика

Пространство, в кот. строятся поверхности отклика, наз. факторным. Оно задается координатными осями, по кот. откладываются значения факторов и параметра оптимизации. Размерность факторного пространства зависит от числа факторов. При многих факторов поверхность отклика уже нельзя изобразить наглядно. Но для 2 факторов можно не переходить к 3х мерному пространству, а ограничиться плоскостью. Для этого достаточно произвести сечение поверхности отклика плоскостями, || плоскости x1 о x2, и получить в сечении линии спроектированными на эту плоскость. рис. Проекции сечений проекции отклика на плоскость

 

Главное требование, предъявляемое к модели – это способность предсказать направление «крутого восхождения», т.е направление движение к оптимальной точке. Т.к. неизвестно направление , необходимо чтобы точность предсказания во всех возможных направлениях была одинакова. Предсказание не должно отличаться от фактического больше чем некоторую заданную величину. Модель, удовлетворяющая такому требованию, наз. адекватной.

Если модель несколько раз отвечает требования м адекватности, то выбирают из них самую простую (например логарифмическую).

Методы оптимизации.

Задачей оптимизации в математике называется задача о нахождении экстремума (минимума или максимума) вещественной функции в некоторой области. Как правило, рассматриваются области, принадлежащие Rn и заданные набором равенств и неравенств.

Классификация методов оптимизации

Методы оптимизации классифицируют в соответствии с задачами оптимизации:

Локальные методы: сходятся к какому-нибудь локальному экстремуму целевой функции. В случае унимодальной целевой функции, этот экстремум единственен, и будет глобальным максимумом/минимумом.

Глобальные методы: имеют дело с многоэкстремальными целевыми функциями. При глобальном поиске основной задачей является выявление тенденций глобального поведения целевой функции.

 

Существующие в настоящее время методы поиска можно разбить на три большие группы:

детерминированные; случайные (стохастические); комбинированные.

По критерию размерности допустимого множества, методы оптимизации делят на методы одномерной оптимизации и методы многомерной оптимизации.

По виду целевой функции и допустимого множества, задачи оптимизации и методы их решения можно разделить на следующие классы:

Задачи оптимизации, в которых целевая функция f(x) и ограничения gi(x), i=1,…,m являются линейными функциями, разрешаются так называемыми методами линейного программирования.

В противном случае имеют дело с задачей нелинейного программирования и применяют соответствующие методы. В свою очередь из них выделяют две частные задачи:

если f(x) и gi(x), i=1,…,m — выпуклые функции, то такую задачу называют задачей выпуклого программирования;

если X ﮯ Z, то имеют дело с задачей целочисленного (дискретного) программирования.

По требованиям к гладкости и наличию у целевой функции частных производных, их также можно разделить на:

прямые методы, требующие только вычислений целевой функции в точках приближений;

методы первого порядка: требуют вычисления первых частных производных функции;

методы второго порядка: требуют вычисления вторых частных производных, то есть гессиана целевой функции.

Помимо того, оптимизационные методы делятся на следующие группы:

аналитические методы (например, метод множителей Лагранжа и условия Каруша-Куна-Таккера); численные методы; графические методы.

Основной факторный эксперимент построения матрицы планирования.

Полный факторный эксперимент

Первый этап планирования эксп для получения линейной модели основан на варьировании факторов на двух уровнях. В этом случае, если число факторов известно, можно сразу найти число опытов, необходимое для реализации всех возможных сочетаний уровней факторов. Простая формула, которая для этого используется: , где N – число опытов, k– число факторов, 2 – число уровней. В общем случае эксперимент, в котором реализуются все возможные сочет-я уровней факт-в, назыв-я полным факторным экспериментом. Если число уров-й каждого фак-а равно 2, то имеем полный факт-й экспе римент типа 2k.

Нетрудно написать все сочетания уровней в экспе рименте с двумя факторами. Напомним, что в планиро вании эксперимента используются кодированные значения факторов: +1 и –1. Условия эксперимента можно записать в виде таблицы-матрицы план:

№ опыта x1 x2 y
–1 –1 y1
+1 –1 y2
–1 +1 y3
+1 +1 y4

Если для 2 факторов все возможные комбинации уровней легко найти прямым перебором (или просто запомнить), то с ростом числа факторов возникает необходимость в некотором приеме построения матриц. три приема постр:, основанные на переходе от матриц меньшей размерности к матри цам большей размерности.

45. Рассмотрим первый план построения матриц. При добав лении нового фактора каждая комбинация уровней исход ного плана встречается дважды: в сочетании с нижним и верхним уровнями нового фактора. Отсюда естественно появляется прием: записать исходный план для одного уровня нового фактора, а затем повторить его для другого уровня. Вот как это выглядит при переходе от экспери мента 22 к 23:

№ опыта x1 x2 x3 y
+ y1
+ + y2
+ + y3
+ + + y4
y5
+ y6
+ y7
+ + y8

Этот прием распространяется на построение матриц любой размерности.