Инвесторы фондового рынка часто основывается на теории финансовых рисков, которые помогают им максимизировать прибыль и минимизировать финансовые потери из-за колебаний рынка. Эти теории помогают инвесторам поддерживать сбалансированный портфель, чтобы убедиться, что они никогда не потеряете больше денег, чем они готовы расстаться в любой момент времени.
Вдохновленный этими теориями, исследователи Массачусетского технологического института в сотрудничестве с Microsoft разработали “риск-курсе” математические модели, которые могли бы повысить производительность облачных сетей по всему миру. В частности, облачная инфраструктура-это очень дорого и потребляет много энергии в мире.
Их модель учитывает вероятность сбоя связи между центрами обработки данных во всем мире — сродни прогнозирования волатильности акций. Затем выполняется оптимизация для распределения трафика через оптимальные пути к минимизации потерь, при максимальной загруженности сети.
Эта модель может помочь крупных облачных провайдеров, таких как Microsoft, Amazon и Гугл — более эффективно использовать свою инфраструктуру. Традиционный подход-держать одной холостом ходу для обработки неожиданные движения изменения, вызванные сбоями ссылке, что это пустая трата энергии, пропускной способности и других ресурсов. Новая модель, получившая название TeaVar, с другой стороны, гарантирует, что для определенной части времени — скажем, на 99,9 процента — сеть может обрабатывать весь трафик данных, поэтому нет необходимости держать какие-либо ссылки простоя. За это 0,01 процента времени, модель также сохраняет данные как можно ниже опустилась.
В экспериментах, основанных на реальных данных, эта модель поддерживает три раза объема трафика как традиционные движения-инженерными методами, сохраняя при этом высокий уровень доступности сети. Документ с описанием модели и результаты будут представлены на конференции SIGCOMM АСМ на этой неделе.
Лучше сеть можно сохранить провайдеры миллионы долларов, но выгоды будет “сочиться вниз” для потребителей, — говорит соавтор Маня Ghobadiбыл, что Цыбко развития карьеры ассистент профессора в Массачусетском технологическом институте кафедра электротехники и компьютерных наук и исследователь в области компьютерных наук и лаборатории искусственного интеллекта (CSAIL).
“Имея больше использовать инфраструктуру не только хорошо для облачных сервисов — это также лучше для мира”, — говорит Ghobadiбыл. “Компаниям не придется приобретать инфраструктуры для продажи услуг клиентам. Плюс, будучи в состоянии эффективно использовать ресурсы центра обработки данных смогут сэкономить огромное количество энергопотребления облачной инфраструктурой. Итак, есть преимущества как для пользователей и окружающей среды одновременно”.
Присоединение Ghobadiбыл на бумаге ее ученики Джереми Богл и Никхил Бхатия, оба CSAIL; Ишай провел Menache и Николай Bjorner в Microsoft исследования; и Асаф Valadarsky и Майкл Schapira Еврейского университета.
На деньги
Поставщики облачных услуг, которые используют сети волоконно-оптических кабелей под землей, соединяющих центры обработки данных в разных городах. Для маршрутизации трафика, провайдеры полагаются на “трафик Инжиниринг” (т е программное обеспечение, которое оптимально распределяет пропускную способность — количество данных, которые могут быть переданы в одно время — через все сетевые пути).
Цель состоит в том, чтобы обеспечить максимальную доступность для пользователей по всему миру. Но это сложно, когда некоторые ссылки могут неожиданно подвести, из-за капель в качество оптического сигнала в результате отключения линии или сократить во время строительства, среди других факторов. Устойчивый к отказам, провайдеры сохранить много ссылок на очень низкий уровень использования, в засаде, чтобы поглотить полной загрузке данных из сбитого одной.
Таким образом, это сложный компромисс между доступностью сети и использования, которые позволили бы увеличение пропускной способности данных. И вот там, где традиционные методы не те, говорят исследователи. Они находят оптимальные пути, опираясь на различные факторы, а не количественной оценки надежности связи. “Они не говорят, ‘эта связь имеет более высокую вероятность быть запущен и работает, так это значит, что вы должны будете посылать сюда больше движения”, — говорит Богл. “Большинство ссылок в сети работают при малых нагрузках и не посылать больше трафика, как они могли послать.”
Исследователи вместо этого создали те модели, которые подстраивают сердечник математики от “условной стоимости на риск,” риск-оценка мер, которые количественно средняя потеря денег. С инвестированием в акции, если у вас есть один день на 99% условной стоимости под риском 50$, Ожидаемая потеря в худшем случае 1 процент сценарии на день 50$. Но 99% времени, вы будете делать гораздо лучше. Эта мера используется для инвестирования на фондовом рынке, который, как известно, трудно предсказать.
“Но математика-это на самом деле лучше подходит для нашей облачной инфраструктуры”, — говорит Ghobadiбыл. “В основном, сбои связи из-за возраста оборудования, поэтому вероятность отказа не меняются с течением времени. Это означает, что наши вероятностей являются более надежными, по сравнению с фондовым рынком”.
Модель риск-известны
В сетях, делит пропускную способность данных аналогичны вложили “деньги” и сетевого оборудования с различными вероятностями отказа являются “запасы” и их неопределенности меняющихся ценностей. С помощью базовых формул, ученые разработали проект “риск-известны модели”, что, как финансового партнера, гарантии данных достигнет своего адресата 99.9 процентов времени, но сохраняет потери трафика как минимум в течение 0,1 процента в худшем случае сбоев. Что позволяет поставщикам облачных тюнинговать доступности-использование компромисс.
Исследователи статистически сопоставить три года уровень сигнала сети от сетей Microsoft, которая соединяет своих центров обработки данных с распределением вероятностей отказов ссылке. Ввод топологии сети в виде графа, с источника и назначения, потоки данных, подключенные через линии (звенья) и узлы (города), в каждой ссылке присваивается пропускная способность.
Вероятности отказа были получены путем проверки качества сигнала каждого канала каждые 15 минут. Если качество сигнала не опускался ниже принимающего порог, они считали, что ошибка. Все, что выше, означает связь была и работала. От этого модель генерируется в среднем времени, чтобы каждое звено было вверх или вниз, и подсчитал вероятность отказа — или “риск” — за каждую ссылку на каждый 15-минутный интервал времени. Из этих данных, он смог предсказать, когда рискованные ссылки не на любом, Котор дали времени.
Исследователи протестировали модель с другими Тэ программного обеспечения по имитации трафика, передаваемого по сети от Гугл, ИБМ, АТТ и другие города. Исследователи создали различные сценарии отказов, основанные на их вероятности появления. Затем они послали моделируемых и реальных потребностей данных через сеть и включил свои модели, чтобы начать выделение полосы пропускания.
Модель исследователей держали надежную связь работает на почти полную мощность, в то время как руководящий данных подальше от рискованных связей. По сравнению с традиционными подходами, их модель пробежал в три раза больше данных по сети, в то же время гарантируя, что все данные, полученные до его назначения. Код находится в свободном доступе на GitHub.