The 4 references with contexts in paper N. Samoylenko S., V. Krutikov N., V. Meshechkin V., Н. Самойленко С., В. Крутиков Н., В. Мешечкин В. (2016) “ИССЛЕДОВАНИЕ ОДНОГО ВАРИАНТА СУБГРАДИЕНТНОГО МЕТОДА // RESEARCH OF ONE VARIANT OF SUBGRADIENT METHOD” / spz:neicon:vestnik-k:y:2015:i:2:p:55-58

2
Поляк Б. Т. Введение в оптимизацию. М.: Наука, 1983. 384 с.
Total in-text references: 10
  1. In-text reference with the coordinate start=2154
    Prefix
    К таким методам линейной алгебры можно отнести метод минимальных ошибок и метод минимальных итераций [3; 4]. Градиентные аналоги релаксационных по функции методов линейной алгебры получили широкое развитие в оптимизации
    Exact
    [2; 3]
    Suffix
    и, в частности, в недифференцируемой оптимизации [2 – 3; 6 – 15]. Субградиентные методы, основанные на минимизации расстояния до экстремума [1 – 3], в оптимизации появились независимо от методов линейной алгебры, и аналогии с линейной алгеброй в этих методах не устанавливались.

  2. In-text reference with the coordinate start=2564
    Prefix
    Субградиентные методы, основанные на минимизации расстояния до экстремума [1 – 3], в оптимизации появились независимо от методов линейной алгебры, и аналогии с линейной алгеброй в этих методах не устанавливались. Установление аналогий и заимствование полезно сказывается на развитии теории минимизации. В свое время это позволило получить метод сопряженных градиентов
    Exact
    [2]
    Suffix
    и развить квазиньютоновские методы [2]. Можно ожидать, что установление аналогий между методами линейной алгебры и методами оптимизации, основанными на минимизации расстояния до экстремума, также окажется полезным.

  3. In-text reference with the coordinate start=2603
    Prefix
    Установление аналогий и заимствование полезно сказывается на развитии теории минимизации. В свое время это позволило получить метод сопряженных градиентов [2] и развить квазиньютоновские методы
    Exact
    [2]
    Suffix
    . Можно ожидать, что установление аналогий между методами линейной алгебры и методами оптимизации, основанными на минимизации расстояния до экстремума, также окажется полезным. Методы оптимизации традиционно разрабатывались для дифференцируемых функций и основывались на возможности локальной аппроксимации функции линейной либо квадратичной моделью [2].

  4. In-text reference with the coordinate start=2928
    Prefix
    Можно ожидать, что установление аналогий между методами линейной алгебры и методами оптимизации, основанными на минимизации расстояния до экстремума, также окажется полезным. Методы оптимизации традиционно разрабатывались для дифференцируемых функций и основывались на возможности локальной аппроксимации функции линейной либо квадратичной моделью
    Exact
    [2]
    Suffix
    . Для решения задач негладкой оптимизации первоначально был предложен субградиентный метод с фиксированным шагом для оптимизации недифферинцируемых функций [3]. Позднее были разработаны субградиентные методы с изменяющимся шагом на итерации (см. [1 – 2] и цитируемую там литературу).

  5. In-text reference with the coordinate start=4326
    Prefix
    Обозначим ошибку rAxb. Введем квадратичную функцию (, A)х**(, ) (), 22 fАхbbrrхff (5) – субградиент функции в точке kx, *f – минимальное значение функции )(xf, которое считается известным. В
    Exact
    [2]
    Suffix
    также обосновывается применимость метода (1) для минимизации однородных и близких к ним функций. В настоящей работе анализируются свойства субградиентного метода (1). В частности, устанавливается взаимосвязь этого метода с известным в линейной алгебре методом минимальных ошибок.

  6. In-text reference with the coordinate start=5663
    Prefix
    С учетом приведенных обозначений преобразуем (4):   () (),() 2()* 1k kk k kkxg gxgx fxf xx  . (6) Метод минимальных ошибок (4) представлен в терминах характеристик минимизируемой функции (5). Для квадратичных функций в (1) величина шагового множителя 2. Выбор величины шагового множителя  в алгоритме (1) определяется свойствами функции
    Exact
    [2]
    Suffix
    . Когда известно минимальное значение функции * f, метод (1) при 1 применяется для решения выпуклых задач минимизации общего вида, не обязательно квадратичных. Таким образом, мы показали, что субградиентный метод (1) можно рассматривать как аналог в оптимизации известного метода минимальных ошибок.

  7. In-text reference with the coordinate start=6636
    Prefix
    наискорейшего спуска, в силу его применимости только для систем уравнений с симметричной и положительно определенной матрицей, становится возможным после преобразования системы посредством второй трансформации Гаусса [4]: AAybT , (3) Относительно сходимости процесса (7) известны следующие результаты. Теорема 1
    Exact
    [2]
    Suffix
    . Пусть f()x – выпуклая функ ция на Rn, множество точек минимума X* которой xAy T  . непусто. Тогда в методе (7) .**Xxxk Оценка скорости сходимости следующая: для произвольной функции f lim(())0*  kfxfk k. где использована взаимосвязь Метод наискорейшего спуска [4, 5] для системы уравнений (3) относительно y имеет вид: 1 k y AA yb AA yb yAAyb AA yb AA AA yb 

  8. In-text reference with the coordinate start=7082
    Prefix
    (7) .**Xxxk Оценка скорости сходимости следующая: для произвольной функции f lim(())0*  kfxfk k. где использована взаимосвязь Метод наискорейшего спуска [4, 5] для системы уравнений (3) относительно y имеет вид: 1 k y AA yb AA yb yAAyb AA yb AA AA yb     Для последовательностей процесса (1) справедTT kkT kkTTT kk  , . ,() ливы следующие ограничения
    Exact
    [2]
    Suffix
    :   Домножим обе части последнего выражения на xxMk*, Cxgk)(, 0, 1, 2,...k, (8) T A. После возврата к старым переменным x полу чим: (4) где M и C – некоторые фиксированные константы [2].

  9. In-text reference with the coordinate start=7272
    Prefix
    y имеет вид: 1 k y AA yb AA yb yAAyb AA yb AA AA yb     Для последовательностей процесса (1) справедTT kkT kkTTT kk  , . ,() ливы следующие ограничения [2]:   Домножим обе части последнего выражения на xxMk*, Cxgk)(, 0, 1, 2,...k, (8) T A. После возврата к старым переменным x полу чим: (4) где M и C – некоторые фиксированные константы
    Exact
    [2]
    Suffix
    . Обозначим достигнутое «рекордное» значение функции на множестве итераций (7): min() ki0,...,ik fx  . x 1 k Axb Axb xAAx b Axb AA Axb      , . ,() kkT kkT kk   Вестник Кемеровского государственного университета 2015 No 2 (62) Т. 5 МАТЕМАТИКА В следующей теореме дана оценка скорости сходимости последовательности «рекордных» значений функции k.

  10. In-text reference with the coordinate start=8391
    Prefix
    Следовательно, хотя бы одно из фиксированные константы, определенные в (8). этих слагаемых с индексом ki должно быть не больше среднего, что приводит к неравенству: 1 (()) 22 *2   k MC fxfki. Доказательство. Пусть ** xX – произвольная точка минимума функции f()x . Тогда для процесса (7), аналогично
    Exact
    [2]
    Suffix
    , получим: Отсюда, с учетом определения k следует оцен1*22* *2 2 2*2 1* 2 *2 1 2 1 2*2 * 02 0 (( )) _ () (( )) () (( )) _... () (()) .... () kk k k kk k k k k i ii xx xx fxf gx fxf xx gx fxf gx fxf xx gx                ка теоремы k MC kffxfki 22 (*2*2))((). (12) Теорема доказана.

3
Шор Н. З. Методы минимизации недифференцируемых функций и их приложения. Киев: Наукова думка, 1979. 199 с.
Total in-text references: 3
  1. In-text reference with the coordinate start=2045
    Prefix
    К методам этого типа относятся метод скорейшего спуска и метод сопряженных градиентов. Второй вид методов обеспечивает релаксационность убывания расстояния до экстремума. К таким методам линейной алгебры можно отнести метод минимальных ошибок и метод минимальных итераций
    Exact
    [3; 4]
    Suffix
    . Градиентные аналоги релаксационных по функции методов линейной алгебры получили широкое развитие в оптимизации [2; 3] и, в частности, в недифференцируемой оптимизации [2 – 3; 6 – 15]. Субградиентные методы, основанные на минимизации расстояния до экстремума [1 – 3], в оптимизации появились независимо от методов линейной алгебры, и аналогии с линейной алгеброй в этих методах не устана

  2. In-text reference with the coordinate start=2154
    Prefix
    К таким методам линейной алгебры можно отнести метод минимальных ошибок и метод минимальных итераций [3; 4]. Градиентные аналоги релаксационных по функции методов линейной алгебры получили широкое развитие в оптимизации
    Exact
    [2; 3]
    Suffix
    и, в частности, в недифференцируемой оптимизации [2 – 3; 6 – 15]. Субградиентные методы, основанные на минимизации расстояния до экстремума [1 – 3], в оптимизации появились независимо от методов линейной алгебры, и аналогии с линейной алгеброй в этих методах не устанавливались.

  3. In-text reference with the coordinate start=3076
    Prefix
    Методы оптимизации традиционно разрабатывались для дифференцируемых функций и основывались на возможности локальной аппроксимации функции линейной либо квадратичной моделью [2]. Для решения задач негладкой оптимизации первоначально был предложен субградиентный метод с фиксированным шагом для оптимизации недифферинцируемых функций
    Exact
    [3]
    Suffix
    . Позднее были разработаны субградиентные методы с изменяющимся шагом на итерации (см. [1 – 2] и цитируемую там литературу). Изучаемый в работе метод принадлежит классу методов негладкой оптимизации, основное свойство которых заключается в сокращении расстояния до экстремума минимизацируемой функция f()x , n xR.

4
Фадеев Д. К., Фадеева В. Н. Вычислительные методы линейной алгебры. М.: Физматгиз, 1960. 656 с.
Total in-text references: 4
  1. In-text reference with the coordinate start=1564
    Prefix
    Подобные функции возникают в задачах декомпозиции, при использовании штрафных функций, в задачах наилучшего приближения и многих других задачах минимизации. Субградиентные методы являются расширением градиентных методов на недифференцируемые функции [1 – 3]. Градиентные методы линейной алгебры
    Exact
    [4; 5]
    Suffix
    , с точки зрения дальнейшего анализа их аналогий в методах оптимизации, можно подразделить на два вида. В первом из них минимизируется непосредственно квадратичная функция, т. е. соблюдается релаксационность метода относительно минимизируемой функции.

  2. In-text reference with the coordinate start=2045
    Prefix
    К методам этого типа относятся метод скорейшего спуска и метод сопряженных градиентов. Второй вид методов обеспечивает релаксационность убывания расстояния до экстремума. К таким методам линейной алгебры можно отнести метод минимальных ошибок и метод минимальных итераций
    Exact
    [3; 4]
    Suffix
    . Градиентные аналоги релаксационных по функции методов линейной алгебры получили широкое развитие в оптимизации [2; 3] и, в частности, в недифференцируемой оптимизации [2 – 3; 6 – 15]. Субградиентные методы, основанные на минимизации расстояния до экстремума [1 – 3], в оптимизации появились независимо от методов линейной алгебры, и аналогии с линейной алгеброй в этих методах не устана

  3. In-text reference with the coordinate start=6483
    Prefix
    Использование метода наискорейшего спуска, в силу его применимости только для систем уравнений с симметричной и положительно определенной матрицей, становится возможным после преобразования системы посредством второй трансформации Гаусса
    Exact
    [4]
    Suffix
    : AAybT , (3) Относительно сходимости процесса (7) известны следующие результаты. Теорема 1 [2]. Пусть f()x – выпуклая функ ция на Rn, множество точек минимума X* которой xAy T  . непусто.

  4. In-text reference with the coordinate start=6883
    Prefix
    Пусть f()x – выпуклая функ ция на Rn, множество точек минимума X* которой xAy T  . непусто. Тогда в методе (7) .**Xxxk Оценка скорости сходимости следующая: для произвольной функции f lim(())0*  kfxfk k. где использована взаимосвязь Метод наискорейшего спуска
    Exact
    [4, 5]
    Suffix
    для системы уравнений (3) относительно y имеет вид: 1 k y AA yb AA yb yAAyb AA yb AA AA yb     Для последовательностей процесса (1) справедTT kkT kkTTT kk  , . ,() ливы следующие ограничения [2]:   Домножим обе части последнего выражения на xxMk*, Cxgk)(, 0, 1, 2,...k, (8) T A.

5
Воеводин В. В., Кузнецов Ю. А. Матрицы и вычисления. М.: Наука, 1984. 329 с.
Total in-text references: 2
  1. In-text reference with the coordinate start=1564
    Prefix
    Подобные функции возникают в задачах декомпозиции, при использовании штрафных функций, в задачах наилучшего приближения и многих других задачах минимизации. Субградиентные методы являются расширением градиентных методов на недифференцируемые функции [1 – 3]. Градиентные методы линейной алгебры
    Exact
    [4; 5]
    Suffix
    , с точки зрения дальнейшего анализа их аналогий в методах оптимизации, можно подразделить на два вида. В первом из них минимизируется непосредственно квадратичная функция, т. е. соблюдается релаксационность метода относительно минимизируемой функции.

  2. In-text reference with the coordinate start=6883
    Prefix
    Пусть f()x – выпуклая функ ция на Rn, множество точек минимума X* которой xAy T  . непусто. Тогда в методе (7) .**Xxxk Оценка скорости сходимости следующая: для произвольной функции f lim(())0*  kfxfk k. где использована взаимосвязь Метод наискорейшего спуска
    Exact
    [4, 5]
    Suffix
    для системы уравнений (3) относительно y имеет вид: 1 k y AA yb AA yb yAAyb AA yb AA AA yb     Для последовательностей процесса (1) справедTT kkT kkTTT kk  , . ,() ливы следующие ограничения [2]:   Домножим обе части последнего выражения на xxMk*, Cxgk)(, 0, 1, 2,...k, (8) T A.