Cтраница 2
Программа SISPIL реализует алгоритм СРС восстановления решения интегрального уравнения в виде кубического сплайна с сопряжениями в узлах равномерной сетки и одновременной селекцией данных таким образом, чтобы на построенном решении функционал среднего риска принимал гарантированно наименьшее значение. Число узлов сопряжений и данные, подлежащие удалению, определяются в процессе выполнения алгоритма. Подробно алгоритм СРС описан в § 2 гл. [16]
В основе многих алгоритмов восстановления зависимостей лежит метод минимизации эмпирического риска. Этот метод приводит к успеху, если класс функций, в котором ведется восстановление, является достаточно узким. Возможны разные определения меры широты класса функций, и для каждого из них ограниченность меры гарантирует успех применения метода минимизации эмпирического риска. [17]
В этом параграфе опишем алгоритм восстановления зависимости по наблюдениям не над самой восстанавливаемой зависимостью, а над некоторой другой, связанной с ней. [18]
В этой главе описаны алгоритмы восстановления многомерной регрессии в классе линейных и кусочно-линейных функций. Все алгоритмы построены по общей схеме, реализующей метод структурной минимизации среднего риска. [19]
Эти условия однозначно определяют физически нереализуемый алгоритм восстановления исходного сообщения. Поэтому в соответствии с теоремой Котельникова практически невозможно реализовать точно ни дискретизацию непрерывного сообщения, ни его шеютановление. Приближенная же реализация этих операций ( с учетом требуемой точности восстановления сообщения) приводит к сложным схемным решениям алгоритма восстановления или к большому объему вычислений при использовании ЭВМ. [20]
Формальное описание задачи для алгоритма восстановления регрессии задается с помощью двух массивов: маски переменных MP и маски векторов MB. Правила составления описания задачи изложены в § 3 гл. [21]
Принцип работы важного класса алгоритмов восстановления изображения состоит в построении карты, согласующейся в пределах уровня шума с измеренной функцией видности, а выбор результата осуществляется путем максимизации какой-либо меры качества изображения. [22]
Следующий пример иллюстрирует выполнение алгоритма восстановления дискриминантной функции. [23]
Эта подпрограмма используется в алгоритме восстановления регрессии ЛОР и в алгоритме LOKOP распознавания образов ( см. § 7 гл. Текст подпрограммы приведен в § 7 гл. [24]
При выполнении этого задания реализуется алгоритм восстановления регрессии. [25]
В этой главе мы рассмотрим алгоритмы восстановления нехарактеристических функций. [26]
С помощью комплекса ВОЛНА реализуются алгоритмы восстановления многомерной регрессии. Эти алгоритмы разбиваются на две группы. [27]
По крайней мере существует возможность дать алгоритм восстановления, который будет работать в тех ситуациях, когда возникающая проблема изоморфизма может быть решена. О и, тем самым, устанавливает возможное строение графа О. Как бы оптимист ни хвалил этот алгоритм, но никакого ключа к обоснованию гипотезы о восстановлении в этой процедуре не предлагается. [28]
Наконец, рассмотрим третью идею построения алгоритмов восстановления значений функции. [29]
В предыдущем параграфе было показано, что алгоритмы восстановления регрессии, полученные методами параметрической статистики зависят от принятой модели помехи. Поэтому необходимо уметь описывать ситуации, в которых следует применять ту или иную модель. [30]