The 4 references with contexts in paper N. Samoylenko S., V. Krutikov N., V. Meshechkin V., Н. Самойленко С., В. Крутиков Н., В. Мешечкин В. (2016) “ИССЛЕДОВАНИЕ ОДНОГО ВАРИАНТА СУБГРАДИЕНТНОГО МЕТОДА // RESEARCH OF ONE VARIANT OF SUBGRADIENT METHOD” / spz:neicon:vestnik-k:y:2015:i:2:p:55-58

2
Поляк Б. Т. Введение в оптимизацию. М.: Наука, 1983. 384 с.
Total in-text references: 10
  1. In-text reference with the coordinate start=2155
    Prefix
    К таким методам линейной алгебры можно отнести метод минимальных ошибок и метод минимальных итераций [3; 4]. Градиентные аналоги релаксационных по функции методов линейной алгебры получили широкое развитие в оптимизации
    Exact
    [2; 3]
    Suffix
    и, в частности, в недифференцируемой оптимизации [2 – 3; 6 – 15]. Субградиентные методы, основанные на минимизации расстояния до экстремума [1 – 3], в оптимизации появились независимо от методов линейной алгебры, и аналогии с линейной алгеброй в этих методах не устанавливались.

  2. In-text reference with the coordinate start=2565
    Prefix
    Субградиентные методы, основанные на минимизации расстояния до экстремума [1 – 3], в оптимизации появились независимо от методов линейной алгебры, и аналогии с линейной алгеброй в этих методах не устанавливались. Установление аналогий и заимствование полезно сказывается на развитии теории минимизации. В свое время это позволило получить метод сопряженных градиентов
    Exact
    [2]
    Suffix
    и развить квазиньютоновские методы [2]. Можно ожидать, что установление аналогий между методами линейной алгебры и методами оптимизации, основанными на минимизации расстояния до экстремума, также окажется полезным.

  3. In-text reference with the coordinate start=2604
    Prefix
    Установление аналогий и заимствование полезно сказывается на развитии теории минимизации. В свое время это позволило получить метод сопряженных градиентов [2] и развить квазиньютоновские методы
    Exact
    [2]
    Suffix
    . Можно ожидать, что установление аналогий между методами линейной алгебры и методами оптимизации, основанными на минимизации расстояния до экстремума, также окажется полезным. Методы оптимизации традиционно разрабатывались для дифференцируемых функций и основывались на возможности локальной аппроксимации функции линейной либо квадратичной моделью [2].

  4. In-text reference with the coordinate start=2929
    Prefix
    Можно ожидать, что установление аналогий между методами линейной алгебры и методами оптимизации, основанными на минимизации расстояния до экстремума, также окажется полезным. Методы оптимизации традиционно разрабатывались для дифференцируемых функций и основывались на возможности локальной аппроксимации функции линейной либо квадратичной моделью
    Exact
    [2]
    Suffix
    . Для решения задач негладкой оптимизации первоначально был предложен субградиентный метод с фиксированным шагом для оптимизации недифферинцируемых функций [3]. Позднее были разработаны субградиентные методы с изменяющимся шагом на итерации (см. [1 – 2] и цитируемую там литературу).

  5. In-text reference with the coordinate start=4206
    Prefix
    Мешечкин МАТЕМАТИКА Вестник Кемеровского государственного университета 2015 No 2 (62) Т. 5 – субградиент функции в точке kx, *f – минимальное значение функции )(xf, которое считается известным. В
    Exact
    [2]
    Suffix
    также обосновывается применимость метода (1) для минимизации однородных и близких к ним функций. В настоящей работе анализируются свойства субградиентного метода (1). В частности, устанавливается взаимосвязь этого метода с известным в линейной алгебре методом минимальных ошибок.

  6. In-text reference with the coordinate start=6418
    Prefix
    С учетом приведенных обозначений преобразуем (4):   () (),() 2()* 1k kk k kkxg gxgx fxf xx  . (6) Метод минимальных ошибок (4) представлен в терминах характеристик минимизируемой функции (5). Для квадратичных функций в (1) величина шагового множителя 2. Выбор величины шагового множителя  в алгоритме (1) определяется свойствами функции
    Exact
    [2]
    Suffix
    . Когда известно минимальное значение функции * f, метод (1) при 1 применяется для решения выпуклых задач минимизации общего вида, не обязательно квадратичных. Таким образом, мы показали, что субградиентный метод (1) можно рассматривать как аналог в оптимизации известного метода минимальных ошибок.

  7. In-text reference with the coordinate start=6910
    Prefix
    Оценка скорости сходимости Рассмотрим итерацию процесса (1) для выпуклых функций:   () (),() ()* 1k kk k kkxg gxgx fxf xx  . (7) Относительно сходимости процесса (7) известны следующие результаты. Теорема 1
    Exact
    [2]
    Suffix
    . Пусть f()x – выпуклая функция на Rn, множество точек минимума X* которой непусто. Тогда в методе (7) .**Xxxk Оценка скорости сходимости следующая: для произвольной функции f lim(())0*  kfxfk k.

  8. In-text reference with the coordinate start=7167
    Prefix
    Пусть f()x – выпуклая функция на Rn, множество точек минимума X* которой непусто. Тогда в методе (7) .**Xxxk Оценка скорости сходимости следующая: для произвольной функции f lim(())0*  kfxfk k. Для последовательностей процесса (1) справедливы следующие ограничения
    Exact
    [2]
    Suffix
    : xxMk*, Cxgk)(, 0, 1, 2,...k, (8) где M и C – некоторые фиксированные константы [2]. Обозначим достигнутое «рекордное» значение функции на множестве итераций (7): min() ki0,...,ik fx  .    1 , . ,() k TT kkT kkTTT kk y AA yb AA yb yAAyb AA yb AA AA yb        1 , . ,() k kkT kkT kk x Axb Axb xAAx b Axb AA Axb     В следующей тео

  9. In-text reference with the coordinate start=7255
    Prefix
    Тогда в методе (7) .**Xxxk Оценка скорости сходимости следующая: для произвольной функции f lim(())0*  kfxfk k. Для последовательностей процесса (1) справедливы следующие ограничения [2]: xxMk*, Cxgk)(, 0, 1, 2,...k, (8) где M и C – некоторые фиксированные константы
    Exact
    [2]
    Suffix
    . Обозначим достигнутое «рекордное» значение функции на множестве итераций (7): min() ki0,...,ik fx  .    1 , . ,() k TT kkT kkTTT kk y AA yb AA yb yAAyb AA yb AA AA yb        1 , . ,() k kkT kkT kk x Axb Axb xAAx b Axb AA Axb     В следующей теореме дана оценка скорости сходимости последовательности «рекордных» значений функции k.

  10. In-text reference with the coordinate start=8027
    Prefix
    Тогда для последовательности «рекордных» значений функции k, генерируемых процессом (7), справедлива оценка k MC kf* , где M и C – фиксированные константы, определенные в (8). Доказательство. Пусть ** xX – произвольная точка минимума функции f()x . Тогда для процесса (7), аналогично
    Exact
    [2]
    Suffix
    , получим: (9) Из (9), с учетом (8), получим цепочку неравенств: (10) Неравенство (10) приведем к следующему виду: 1 (()) 1 122 0 *2     k MC fxf k k i i. (11) В левой части (11) находится среднее арифметическое слагаемых.

3
Шор Н. З. Методы минимизации недифференцируемых функций и их приложения. Киев: Наукова думка, 1979. 199 с.
Total in-text references: 3
  1. In-text reference with the coordinate start=2046
    Prefix
    К методам этого типа относятся метод скорейшего спуска и метод сопряженных градиентов. Второй вид методов обеспечивает релаксационность убывания расстояния до экстремума. К таким методам линейной алгебры можно отнести метод минимальных ошибок и метод минимальных итераций
    Exact
    [3; 4]
    Suffix
    . Градиентные аналоги релаксационных по функции методов линейной алгебры получили широкое развитие в оптимизации [2; 3] и, в частности, в недифференцируемой оптимизации [2 – 3; 6 – 15]. Субградиентные методы, основанные на минимизации расстояния до экстремума [1 – 3], в оптимизации появились независимо от методов линейной алгебры, и аналогии с линейной алгеброй в этих методах не устана

  2. In-text reference with the coordinate start=2155
    Prefix
    К таким методам линейной алгебры можно отнести метод минимальных ошибок и метод минимальных итераций [3; 4]. Градиентные аналоги релаксационных по функции методов линейной алгебры получили широкое развитие в оптимизации
    Exact
    [2; 3]
    Suffix
    и, в частности, в недифференцируемой оптимизации [2 – 3; 6 – 15]. Субградиентные методы, основанные на минимизации расстояния до экстремума [1 – 3], в оптимизации появились независимо от методов линейной алгебры, и аналогии с линейной алгеброй в этих методах не устанавливались.

  3. In-text reference with the coordinate start=3077
    Prefix
    Методы оптимизации традиционно разрабатывались для дифференцируемых функций и основывались на возможности локальной аппроксимации функции линейной либо квадратичной моделью [2]. Для решения задач негладкой оптимизации первоначально был предложен субградиентный метод с фиксированным шагом для оптимизации недифферинцируемых функций
    Exact
    [3]
    Suffix
    . Позднее были разработаны субградиентные методы с изменяющимся шагом на итерации (см. [1 – 2] и цитируемую там литературу). Изучаемый в работе метод принадлежит классу методов негладкой оптимизации, основное свойство которых заключается в сокращении расстояния до экстремума минимизацируемой функция f()x , n xR.

4
Фадеев Д. К., Фадеева В. Н. Вычислительные методы линейной алгебры. М.: Физматгиз, 1960. 656 с.
Total in-text references: 4
  1. In-text reference with the coordinate start=1565
    Prefix
    Подобные функции возникают в задачах декомпозиции, при использовании штрафных функций, в задачах наилучшего приближения и многих других задачах минимизации. Субградиентные методы являются расширением градиентных методов на недифференцируемые функции [1 – 3]. Градиентные методы линейной алгебры
    Exact
    [4; 5]
    Suffix
    , с точки зрения дальнейшего анализа их аналогий в методах оптимизации, можно подразделить на два вида. В первом из них минимизируется непосредственно квадратичная функция, т. е. соблюдается релаксационность метода относительно минимизируемой функции.

  2. In-text reference with the coordinate start=2046
    Prefix
    К методам этого типа относятся метод скорейшего спуска и метод сопряженных градиентов. Второй вид методов обеспечивает релаксационность убывания расстояния до экстремума. К таким методам линейной алгебры можно отнести метод минимальных ошибок и метод минимальных итераций
    Exact
    [3; 4]
    Suffix
    . Градиентные аналоги релаксационных по функции методов линейной алгебры получили широкое развитие в оптимизации [2; 3] и, в частности, в недифференцируемой оптимизации [2 – 3; 6 – 15]. Субградиентные методы, основанные на минимизации расстояния до экстремума [1 – 3], в оптимизации появились независимо от методов линейной алгебры, и аналогии с линейной алгеброй в этих методах не устана

  3. In-text reference with the coordinate start=5527
    Prefix
    Использование метода наискорейшего спуска, в силу его применимости только для систем уравнений с симметричной и положительно определенной матрицей, становится возможным после преобразования системы посредством второй трансформации Гаусса
    Exact
    [4]
    Suffix
    : AAybT , (3) где использована взаимосвязь xAy T  . Метод наискорейшего спуска [4, 5] для системы уравнений (3) относительно y имеет вид: Домножим обе части последнего выражения на T A.

  4. In-text reference with the coordinate start=5672
    Prefix
    метода наискорейшего спуска, в силу его применимости только для систем уравнений с симметричной и положительно определенной матрицей, становится возможным после преобразования системы посредством второй трансформации Гаусса [4]: AAybT , (3) где использована взаимосвязь xAy T  . Метод наискорейшего спуска
    Exact
    [4, 5]
    Suffix
    для системы уравнений (3) относительно y имеет вид: Домножим обе части последнего выражения на T A. После возврата к старым переменным x получим: (4) Этот итерационный метод называется методом минимальных ошибок [3 – 4].

5
Воеводин В. В., Кузнецов Ю. А. Матрицы и вычисления. М.: Наука, 1984. 329 с.
Total in-text references: 2
  1. In-text reference with the coordinate start=1565
    Prefix
    Подобные функции возникают в задачах декомпозиции, при использовании штрафных функций, в задачах наилучшего приближения и многих других задачах минимизации. Субградиентные методы являются расширением градиентных методов на недифференцируемые функции [1 – 3]. Градиентные методы линейной алгебры
    Exact
    [4; 5]
    Suffix
    , с точки зрения дальнейшего анализа их аналогий в методах оптимизации, можно подразделить на два вида. В первом из них минимизируется непосредственно квадратичная функция, т. е. соблюдается релаксационность метода относительно минимизируемой функции.

  2. In-text reference with the coordinate start=5672
    Prefix
    метода наискорейшего спуска, в силу его применимости только для систем уравнений с симметричной и положительно определенной матрицей, становится возможным после преобразования системы посредством второй трансформации Гаусса [4]: AAybT , (3) где использована взаимосвязь xAy T  . Метод наискорейшего спуска
    Exact
    [4, 5]
    Suffix
    для системы уравнений (3) относительно y имеет вид: Домножим обе части последнего выражения на T A. После возврата к старым переменным x получим: (4) Этот итерационный метод называется методом минимальных ошибок [3 – 4].