Mikhail Moklyachuk - Convex Optimization

Здесь есть возможность читать онлайн «Mikhail Moklyachuk - Convex Optimization» — ознакомительный отрывок электронной книги совершенно бесплатно, а после прочтения отрывка купить полную версию. В некоторых случаях можно слушать аудио, скачать через торрент в формате fb2 и присутствует краткое содержание. Жанр: unrecognised, на английском языке. Описание произведения, (предисловие) а так же отзывы посетителей доступны на портале библиотеки ЛибКат.

Convex Optimization: краткое содержание, описание и аннотация

Предлагаем к чтению аннотацию, описание, краткое содержание или предисловие (зависит от того, что написал сам автор книги «Convex Optimization»). Если вы не нашли необходимую информацию о книге — напишите в комментариях, мы постараемся отыскать её.

This book provides easy access to the basic principles and methods for solving constrained and unconstrained convex optimization problems. Included are sections that cover: basic methods for solving constrained and unconstrained optimization problems with differentiable objective functions; convex sets and their properties; convex functions and their properties and generalizations; and basic principles of sub-differential calculus and convex programming problems.
provides detailed proofs for most of the results presented in the book and also includes many figures and exercises for a better understanding of the material. Exercises are given at the end of each chapter, with solutions and hints to selected exercises given at the end of the book. Undergraduate and graduate students, researchers in different disciplines, as well as practitioners will all benefit from this accessible approach to convex optimization methods.

Convex Optimization — читать онлайн ознакомительный отрывок

Ниже представлен текст книги, разбитый по страницам. Система сохранения места последней прочитанной страницы, позволяет с удобством читать онлайн бесплатно книгу «Convex Optimization», без необходимости каждый раз заново искать на чём Вы остановились. Поставьте закладку, и сможете в любой момент перейти на страницу, на которой закончили чтение.

Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать
We write down the series of principal minors of the matrix A Then the - фото 118

We write down the series of principal minors of the matrix A

Then the matrix A is positive definite if the matrix A is negative - фото 119

Then:

– the matrix A is positive definite, if

– the matrix A is negative definite, if

– the matrix A is non-negative (non-positive) definite, ifand there exists j, such that Δj =0;

– the matrix A is indefinite.

EXAMPLE 1.1.– Find solutions for the optimization problem

Solution The function is continuous Obviously S max As a result of the - фото 120

Solution . The function is continuous. Obviously, S max= +∞. As a result of the Weierstrass theorem, the minimum is attained. The necessary conditions of the first order

are of the form Solving these equations we find the critical points 0 0 - фото 121

are of the form

Solving these equations we find the critical points 0 0 1 1 1 1 - фото 122

Solving these equations, we find the critical points (0, 0), (1, 1), (–1, –1). To use the second-order conditions, we compute matrices composed of the second-order partial derivatives:

The matrix A 1is nonnegative definite Therefore the point 0 0 satisfies - фото 123

The matrix – A 1is non-negative definite. Therefore, the point (0, 0) satisfies the second-order necessary conditions for a maximum. However, a direct verification of the behavior of the function f in a neighborhood of the point (0, 0) shows that (0, 0) ∉ locextr f . The matrix A 2is positive definite. Thus, by theorem 1.13, the local minimum of the problem is attained at the points (1, 1), ( –1, –1).

Answer . (0, 0) ∉ locextr; (1, 1), ( –1, –1) ∈ locmin.

1.4. Constrained optimization problems

1.4.1. Problems with equality constraints

Let fk : ℝ n→ ℝ, k = 0,1, … , m , be differentiable functions of n real variables. The constrained optimization problem ( with equality constraints ) is the problem

[1.2] The points x ℝ n which satisfy the equation fk x 0 are called - фото 124

The points x ∈ ℝ n, which satisfy the equation fk ( x ) = 0, картинка 125, are called admissible in the problem [1.2]. An admissible point картинка 126gives a local minimum (maximum) of the problem [1.2]if there exists a number δ > 0 such that for all admissible x ∈ ℝ nthat satisfy the conditions fk ( x ) = 0, k = 1, 2, … , m , and the condition the following inequality holds true The main method of solving constrained - фото 127, the following inequality

holds true The main method of solving constrained optimization problems is the - фото 128

holds true.

The main method of solving constrained optimization problems is the method of indeterminate Lagrange multipliers . It is based on the fact that the solution of the constrained optimization problem [1.2]is attained at points that are critical in the unconstrained optimization problem

Convex Optimization - изображение 129

where is the Lagrange function and λ 0 λ mare the Lagrange multipliers - фото 130is the Lagrange function , and λ 0, … , λ mare the Lagrange multipliers .

THEOREM 1.15.– ( Lagrange theorem ) Let картинка 131be a point of local extremum of the problem [1.2], and let the functions fi ( x ), i = 0, 1, … , m , be continuously differentiable in a neighborhood U of the point Then there will exist the Lagrange multipliers λ 0 λ m not all equal to - фото 132. Then there will exist the Lagrange multipliers λ 0, … , λ m, not all equal to zero, such that the stationary condition on x of the Lagrange function is fulfilled

Convex Optimization - изображение 133

In order for λ 0≠ 0, it is sufficient that the vectors Convex Optimization - изображение 134be linearly independent.

To prove the theorem, we use the inverse function theorem in a finite-dimensional space.

THEOREM 1.16.– ( Inversefunction theorem ) Let F 1( x ,… , xs ), … , Fs ( x 1, ..., xs ) be s continuously differentiable in a neighborhood U of the point Convex Optimization - изображение 135functions of s variables and let the Jacobian

Convex Optimization - изображение 136

be not equal to zero. Then there exist numbers ε > 0, δ > 0, K > 0 such that for any y = ( y 1, … , ys ), ∥ y ∥ ≤ ε we can find x = ( x 1, … , xs ), which satisfies conditions ∥ x ∥ < δ, Convex Optimization - изображение 137, ∥ x ∥ ≤ Ky ∥.

PROOF.– We prove the Lagrange theorem by contradiction. Suppose that the stationarity condition

Convex Optimization - изображение 138

does not hold, and vectors Convex Optimization - изображение 139, i = 0, 1, … , m , are linearly independent, which means that the rank of the matrix

Читать дальше
Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать

Похожие книги на «Convex Optimization»

Представляем Вашему вниманию похожие книги на «Convex Optimization» списком для выбора. Мы отобрали схожую по названию и смыслу литературу в надежде предоставить читателям больше вариантов отыскать новые, интересные, ещё непрочитанные произведения.


Отзывы о книге «Convex Optimization»

Обсуждение, отзывы о книге «Convex Optimization» и просто собственные мнения читателей. Оставьте ваши комментарии, напишите, что Вы думаете о произведении, его смысле или главных героях. Укажите что конкретно понравилось, а что нет, и почему Вы так считаете.

x