Все это делала в EViews. Проверила на адекватность – вроде, все в порядке. Теперь самое главное – построить прогноз на десять . Eviews (далее пакет) установлен в директорий Program Files/Eviews3. Это связано с тем, что исходный файл содержит 4 переменные, находящиеся в .
Регрессия не всегда оценивается в одно мгновение. В этом посте я сравниваю время оценки линейной регрессии в R и Eviews в зависимости от количества наблюдений. Для проведения этого теста будем использовать простую линейную регрессию: yi= 1. Я взял N oт 1. 00 0. Что из этого получилось. Результаты R (Линейная и логарифмическая модели).
Результаты Eviews (Линейная и логарифмическая модели). В конце хочу сказать, что не стоит сразу записывать это в R как минус. В приложении Eviews осуществляется с помощью команд меню, чтобы сделать это в STATISTICA необходимо зайти в отдельный модуль Основные . Руководство по эконометрическому пакету EViews.
Я добавил переменную dum — дамми на одно из наблюдений (видно выброс на графике, в этот момент мне нужно было открыть браузер). Как и ожидалось, количество наблюдений значимо влияет на время построения регрессии. Мультипликативная модель дает более красивые результаты.
Даже есть намёк на нормальность остатков в регрессии. Mindeo Ms 3390 Инструкция На Русском.Doc. По линейной модели получаем, что каждый дополнительный миллион наблюдений увеличивает время построения на 1.
Тем не менее в логарифмической модели можно принять гипотезу о нормальности (т. Линейная модель предсказывает, что дополнительный миллион наблюдений увеличит время оценивания модели на 0. R). В логарифмической модели эластичность — 0. R) На графиках видно значительное количество выбросов, что, скорее всего, говорит о намного более значимом влиянии загрузки процессора на время вычисления в Eviews. Присутствует гетероскедастичность в ошибках, что свидетельствует в пользу включения переменной — уровня загрузки процессора в модель. Нужно отметить, что Eviews практически не потребляет оперативную память, в то время как R кумулятивно увеличивает объем потребляемой памяти для своих нужд и не освобождает ее до закрытия программы.
Опять же, остатки в моделях не нормальные, нужно добавлять ещё переменных. В конце хочу сказать, что не стоит сразу записывать это в R как минус.
Возможно, такое разное время вычисления получилось потому, что функция lm(), которую я использовал в R создает большой объект типа lm в котором содержится много информации об оцененной модели и для 1. Программу Winbox здесь. Mb, который опять же, хранится в оперативной памяти. Если вам будет интересно можно повторить похожий тест, используя какие- либо другие функции из R или, например, реализовать алгоритм gradient descent, о котором можно посмотреть здесь. Код в Rlibrary(ggplot. Создаем векторы, которые будут содержать кол- во наблюдений и время выполнения.
N < - seq(1. 00. N)). #Строим линейную регрессию для каждого кол- ва наблюдений из вектора N и запоминаем время построения.