IBM обещает миру суперкомпьютер в кубике сахара
admin 17 Ноября 2010 в 10:30:20
Когда речь заходит о миниатюризации компьютеров, принято рассуждать о технологиях, которые позволяют упаковать элементы чипов ещё плотнее, чем раньше. Но зачастую из вида упускается один важный момент — перегрев. Решение задачи эффективного охлаждения процессоров — ключ к дальнейшему развитию отрасли. В этом уверены специалисты небезызвестной компании.
Учёные из IBM считают, что радикально улучшив отвод тепла от микросхем, можно одним выстрелом убить сразу двух зайцев. Во-первых, продвинуться на пути миниатюризации вычислительных комплексов, а во-вторых, серьёзно снизить стоимость эксплуатации суперкомпьютерных комплексов и центров хранения/обработки данных. При этом не придётся отказываться от кремния как традиционной основы технологии микросхем.
Соблазнительно, конечно, попробовать перейти на чипы из карбида кремния, способные работать при температуре до 650 градусов Цельсия. Но даже им потребуется хоть какая-то система охлаждения. Дело в том, что современные серийные процессоры обладают теплоотдачей 50-100 ватт на квадратный сантиметр площади, что на порядок больше, чем у конфорок электрической кухонной плиты. Если чип вовремя не отключить, без охлаждения он очень быстро выходит из строя.
Современные кулеры для процессоров – порой настоящее произведение искусства. Но зачастую положение не спасает ни хороший вентилятор, ни чудовищный радиатор с развитой поверхностью (фото с сайта xtreview.com).
Процессоры будущего, по прогнозу IBM, продемонстрируют ещё большую генерацию тепла на единицу поверхности. Без охлаждения они будут нагреваться до температуры поверхности Солнца (в теории, потому что ещё раньше расплавятся).
Так что карбид кремния сам по себе проблемы не решит и, судя по всему, останется экзотикой для узких областей применения (чипы в космических аппаратах или внутри газотурбинных двигателей). Но, может, лучше менять не микросхемы, а способ их охлаждения? На ум сразу приходит вода.
Вода способна отводить тепло в 4000 раз эффективнее, чем воздух. Потому-то многие компании и строят различного рода водяные системы. Но то, что годится для десктопа, трудно развернуть до масштаба суперкомпьютера. Такого, как показанный здесь американо-швейцарский аппарат (фото ETH Zürich).
Собственно водяное охлаждение чипов придумано давно. Но если подопечный — очень мощная компьютерная система, недостаточно просто доставить жидкость к поверхности процессоров. Нужно очень равномерно распределить этот поток, а потом быстро отвести нагретую воду прочь.
В поиске наилучшей схемы IBM обратилась к природным патентам. Специалисты вдохновились кровеносной системой человека. В ней крупные артерии несут насыщенную кислородом кровь к периферии организма, постепенно разбиваясь на всё более мелкие сосуды, в конце концов заканчиваясь мельчайшими капиллярами. Обратный ток обеспечивает вторая сеть из капилляров, сливающихся в более крупные "трубопроводы", в свою очередь несущие кровоток к большим венам.
Охлаждение "по методу IBM" устроено по мотивам кровеносной системы (иллюстрация IBM).
В комплексе от IBM крупные трубки постепенно ветвятся на всё более мелкие, по мере того как вода поступает к ключевым местам компьютерных плат. Но главное – на процессоре установлен тонкий бутерброд с лабиринтом из отверстий. По мере приближения к поверхности чипа водяной поток расходится по мелким каналам поперечником в доли миллиметра.
Аналогичная сеть капилляров и трубок собирает нагретую воду. При этом температура подходящей жидкости равна 60 градусам Цельсия, а уходящей — 65-68 °C. Рабочая же температура чипа не превышает 80-85 градусов.
Один из ранних прототипов платы с мощными процессорами, охлаждаемыми, как ни странно звучит, горячей водой. Охлаждение работает на сравнительно скромной разнице температур, но за счёт высокой теплоёмкости H2O обеспечивает хороший теплоотвод от микросхем (фото IBM).
Прототипом крупных ЭВМ с такой системой охлаждения стал суперкомпьютер Aquasar, запущенный в мае 2010 года. Это совместное детище европейского исследовательского отделения IBM (IBM Research – Zurich) и швейцарского федерального технического университета (ETH Zürich), где и расположена удивительная машина.
Аппарат размером с крупный холодильник представляет собой кластер из 42 серверов двух моделей (QS22 и HS22). 28 из них (22 QS22 и 6 HS22) оборудованы инновационным водяным охлаждением, а остальные (11 QS22 и 3 HS22) — обычным воздушным. Это сделано для сравнения двух технологий в равных условиях.
Ральф Айхлер (Ralph Eichler), президент ETH Zürich, и Джон Келли (John Kelly), вице-президент IBM, глава исследовательского отдела, на церемонии открытия "Аквазара" – первого в своём роде суперкомпьютера, охлаждаемого горячей водой (фото Michael Lowry/IBM Research – Zurich).
Любопытная особенность разработки: отведённая от суперкомпьютера вода поступает в теплообменник, где отдаёт энергию воде, которая курсирует в системе обогрева здания. В обычных дата-центрах холодильные установки создают поток воздуха с температурой 15°C. Воздух проходит через стойки с серверами, а нагретый воздушный поток, как правило, без всякой пользы выбрасывается на улицу.
Неудивительно, что нынешние центры обработки данных 50% потребляемой энергии тратят на холодильные агрегаты. Водяное охлаждение "Аквазара" намного эффективнее: в целом суперкомпьютер на 40% экономичнее сопоставимых по производительности машин с воздушным охлаждением, — утверждают швейцарцы.
"Аквазар" вмещает 20 литров воды, которые прогоняются по всему контуру с темпом 30 л/мин. В систему включены фильтры, предотвращающие засорение микроканалов в процессорах от попадания твёрдых частиц (фото ETH Zürich).
При суммарной скорости в шесть триллионов операций в секунду комплекс потребляет около 20 киловатт. Это не рекорд, но параметр достойный. Так, первая десятка в рейтинге "самых зелёных" суперкомпьютеров планеты (Green500) обладает производительностью от 400 до 770 миллионов операций в секунду на ватт потребляемой мощности. Кстати, недавно отметившийся рекордом скорости китайский суперкомпьютер обладает показателем экономичности в 620 мегафлопсов на ватт.
Но если вспомнить, что до 9 киловатт дарового тепла от "Аквазара" идут на полезный обогрев помещений университета, параметры отдельно взятой "водяной", то есть экспериментальной части выглядят ещё привлекательнее.
IBM сообщает, что при общей производительности 22-х серверов QS22 в 3,4 терафлопса они вместе с сопутствующим оборудованием тянут из сети 7,5 киловатта мощности. Но при этом 4,5 кВт генерируют в виде утилизируемого тепла. С его учётом эффективность "Аквазара" составляет уже 1,1 гигафлопса на ватт.
IBM выстроила такую цепочку: плата (на верхнем снимке – сервер QS22), система циркуляции воды, обогрев здания. Кстати, в новой схеме водяное охлаждение получили не только процессоры, но и чипы памяти и некоторые другие критические элементы сервера (иллюстрации IBM, IBM Research – Zurich, ETH Zürich).
Технология охлаждения "Аквазара" масштабируется до машин петафлопного класса. Но для IBM это только исследовательский полигон. Испытания компьютера помогут инженерам и учёным в разработке ещё более "уплотнённых" машин.
Доктор Бруно Мишель (Bruno Michel), руководящий в IBM Research — Zurich исследованиями по системам охлаждения чипов, один из главных авторов "Аквазара", говорит: "Мы планируем, что за 10-15 лет сможем утрамбовать такую систему в кубик сахара".
Обогревая помещения (3) горячей водой от компьютеров (1), пресловутый углеродный след дата-центров и суперкомпьютерных центров можно сократить на 85%, – утверждают разработчики "Аквазара". 2 – промежуточный теплообменник (иллюстрация IBM Research – Zurich).
Чтобы достичь уровня "кубика сахара", IBM намерена создать чипы, в которых сразу несколько процессоров сложены один на другой практически без зазора. Между такими схемами будут проложены разветвлённые сети водяных каналов толщиной с человеческий волос.
Столь плотная упаковка решит сразу несколько проблем: радикально сократится расстояние между чипами, что благотворно скажется на скорости вычислений, уменьшится длина соединений (будет ниже энергопотребление), общий размер компьютера окажется скромнее.
Этот подход, своего рода третье измерение для закона Мура, IBM уже апробирует в своих лабораториях. Пару лет назад она сумела организовать охлаждение трёхмерного чипа, а позже построила сэндвич из четырёх процессоров. С такими устройствами компания намерена отработать тончайшие каналы для подвода воды, а ещё вертикальные электрические связи между слоями схем (они должны быть водонепроницаемы).
От идеи многослойных процессоров (слева вверху) к первым прототипам (на снимках): IBM считает, что водяное охлаждение схем не сказало своего последнего слова.
В будущем можно испытать в роли теплоносителя смесь воды и микрокапелек масла (аналог плазмы крови и кровяных клеток). Для снижения жидкостного трения и насосных потерь поверхности микроканалов можно сделать гидрофобными... В общем, тут ещё поле непаханое для исследований (иллюстрации IBM Research – Zurich).
Компьютер такого рода должен оказаться быстрым, компактным и "зелёным". Последнему обстоятельству обрадуются не только экологи. "В будущем компьютеры будут доминировать сообразно энергетическим затратам — работа дата-центра будет обходиться дороже, чем его постройка", — прогнозирует Мишель.
Собственно, уже сейчас владельцы мощных конгломератов компьютеров ощущают на своих кошельках, сколь немало стоит подпитывать "прогресс" из розетки. По оценке аналитической компании IDC, в прошлом году дата-центры Земли "сожгли" 330 тераватт-часов или примерно два процента от мировой выработки электроэнергии.
http://www.membrana.ru/articles/technic/2010/11/15/200300.html
Учёные из IBM считают, что радикально улучшив отвод тепла от микросхем, можно одним выстрелом убить сразу двух зайцев. Во-первых, продвинуться на пути миниатюризации вычислительных комплексов, а во-вторых, серьёзно снизить стоимость эксплуатации суперкомпьютерных комплексов и центров хранения/обработки данных. При этом не придётся отказываться от кремния как традиционной основы технологии микросхем.
Соблазнительно, конечно, попробовать перейти на чипы из карбида кремния, способные работать при температуре до 650 градусов Цельсия. Но даже им потребуется хоть какая-то система охлаждения. Дело в том, что современные серийные процессоры обладают теплоотдачей 50-100 ватт на квадратный сантиметр площади, что на порядок больше, чем у конфорок электрической кухонной плиты. Если чип вовремя не отключить, без охлаждения он очень быстро выходит из строя.
Современные кулеры для процессоров – порой настоящее произведение искусства. Но зачастую положение не спасает ни хороший вентилятор, ни чудовищный радиатор с развитой поверхностью (фото с сайта xtreview.com).
Процессоры будущего, по прогнозу IBM, продемонстрируют ещё большую генерацию тепла на единицу поверхности. Без охлаждения они будут нагреваться до температуры поверхности Солнца (в теории, потому что ещё раньше расплавятся).
Так что карбид кремния сам по себе проблемы не решит и, судя по всему, останется экзотикой для узких областей применения (чипы в космических аппаратах или внутри газотурбинных двигателей). Но, может, лучше менять не микросхемы, а способ их охлаждения? На ум сразу приходит вода.
Вода способна отводить тепло в 4000 раз эффективнее, чем воздух. Потому-то многие компании и строят различного рода водяные системы. Но то, что годится для десктопа, трудно развернуть до масштаба суперкомпьютера. Такого, как показанный здесь американо-швейцарский аппарат (фото ETH Zürich).
Собственно водяное охлаждение чипов придумано давно. Но если подопечный — очень мощная компьютерная система, недостаточно просто доставить жидкость к поверхности процессоров. Нужно очень равномерно распределить этот поток, а потом быстро отвести нагретую воду прочь.
В поиске наилучшей схемы IBM обратилась к природным патентам. Специалисты вдохновились кровеносной системой человека. В ней крупные артерии несут насыщенную кислородом кровь к периферии организма, постепенно разбиваясь на всё более мелкие сосуды, в конце концов заканчиваясь мельчайшими капиллярами. Обратный ток обеспечивает вторая сеть из капилляров, сливающихся в более крупные "трубопроводы", в свою очередь несущие кровоток к большим венам.
Охлаждение "по методу IBM" устроено по мотивам кровеносной системы (иллюстрация IBM).
В комплексе от IBM крупные трубки постепенно ветвятся на всё более мелкие, по мере того как вода поступает к ключевым местам компьютерных плат. Но главное – на процессоре установлен тонкий бутерброд с лабиринтом из отверстий. По мере приближения к поверхности чипа водяной поток расходится по мелким каналам поперечником в доли миллиметра.
Аналогичная сеть капилляров и трубок собирает нагретую воду. При этом температура подходящей жидкости равна 60 градусам Цельсия, а уходящей — 65-68 °C. Рабочая же температура чипа не превышает 80-85 градусов.
Один из ранних прототипов платы с мощными процессорами, охлаждаемыми, как ни странно звучит, горячей водой. Охлаждение работает на сравнительно скромной разнице температур, но за счёт высокой теплоёмкости H2O обеспечивает хороший теплоотвод от микросхем (фото IBM).
Прототипом крупных ЭВМ с такой системой охлаждения стал суперкомпьютер Aquasar, запущенный в мае 2010 года. Это совместное детище европейского исследовательского отделения IBM (IBM Research – Zurich) и швейцарского федерального технического университета (ETH Zürich), где и расположена удивительная машина.
Аппарат размером с крупный холодильник представляет собой кластер из 42 серверов двух моделей (QS22 и HS22). 28 из них (22 QS22 и 6 HS22) оборудованы инновационным водяным охлаждением, а остальные (11 QS22 и 3 HS22) — обычным воздушным. Это сделано для сравнения двух технологий в равных условиях.
Ральф Айхлер (Ralph Eichler), президент ETH Zürich, и Джон Келли (John Kelly), вице-президент IBM, глава исследовательского отдела, на церемонии открытия "Аквазара" – первого в своём роде суперкомпьютера, охлаждаемого горячей водой (фото Michael Lowry/IBM Research – Zurich).
Любопытная особенность разработки: отведённая от суперкомпьютера вода поступает в теплообменник, где отдаёт энергию воде, которая курсирует в системе обогрева здания. В обычных дата-центрах холодильные установки создают поток воздуха с температурой 15°C. Воздух проходит через стойки с серверами, а нагретый воздушный поток, как правило, без всякой пользы выбрасывается на улицу.
Неудивительно, что нынешние центры обработки данных 50% потребляемой энергии тратят на холодильные агрегаты. Водяное охлаждение "Аквазара" намного эффективнее: в целом суперкомпьютер на 40% экономичнее сопоставимых по производительности машин с воздушным охлаждением, — утверждают швейцарцы.
"Аквазар" вмещает 20 литров воды, которые прогоняются по всему контуру с темпом 30 л/мин. В систему включены фильтры, предотвращающие засорение микроканалов в процессорах от попадания твёрдых частиц (фото ETH Zürich).
При суммарной скорости в шесть триллионов операций в секунду комплекс потребляет около 20 киловатт. Это не рекорд, но параметр достойный. Так, первая десятка в рейтинге "самых зелёных" суперкомпьютеров планеты (Green500) обладает производительностью от 400 до 770 миллионов операций в секунду на ватт потребляемой мощности. Кстати, недавно отметившийся рекордом скорости китайский суперкомпьютер обладает показателем экономичности в 620 мегафлопсов на ватт.
Но если вспомнить, что до 9 киловатт дарового тепла от "Аквазара" идут на полезный обогрев помещений университета, параметры отдельно взятой "водяной", то есть экспериментальной части выглядят ещё привлекательнее.
IBM сообщает, что при общей производительности 22-х серверов QS22 в 3,4 терафлопса они вместе с сопутствующим оборудованием тянут из сети 7,5 киловатта мощности. Но при этом 4,5 кВт генерируют в виде утилизируемого тепла. С его учётом эффективность "Аквазара" составляет уже 1,1 гигафлопса на ватт.
IBM выстроила такую цепочку: плата (на верхнем снимке – сервер QS22), система циркуляции воды, обогрев здания. Кстати, в новой схеме водяное охлаждение получили не только процессоры, но и чипы памяти и некоторые другие критические элементы сервера (иллюстрации IBM, IBM Research – Zurich, ETH Zürich).
Технология охлаждения "Аквазара" масштабируется до машин петафлопного класса. Но для IBM это только исследовательский полигон. Испытания компьютера помогут инженерам и учёным в разработке ещё более "уплотнённых" машин.
Доктор Бруно Мишель (Bruno Michel), руководящий в IBM Research — Zurich исследованиями по системам охлаждения чипов, один из главных авторов "Аквазара", говорит: "Мы планируем, что за 10-15 лет сможем утрамбовать такую систему в кубик сахара".
Обогревая помещения (3) горячей водой от компьютеров (1), пресловутый углеродный след дата-центров и суперкомпьютерных центров можно сократить на 85%, – утверждают разработчики "Аквазара". 2 – промежуточный теплообменник (иллюстрация IBM Research – Zurich).
Чтобы достичь уровня "кубика сахара", IBM намерена создать чипы, в которых сразу несколько процессоров сложены один на другой практически без зазора. Между такими схемами будут проложены разветвлённые сети водяных каналов толщиной с человеческий волос.
Столь плотная упаковка решит сразу несколько проблем: радикально сократится расстояние между чипами, что благотворно скажется на скорости вычислений, уменьшится длина соединений (будет ниже энергопотребление), общий размер компьютера окажется скромнее.
Этот подход, своего рода третье измерение для закона Мура, IBM уже апробирует в своих лабораториях. Пару лет назад она сумела организовать охлаждение трёхмерного чипа, а позже построила сэндвич из четырёх процессоров. С такими устройствами компания намерена отработать тончайшие каналы для подвода воды, а ещё вертикальные электрические связи между слоями схем (они должны быть водонепроницаемы).
От идеи многослойных процессоров (слева вверху) к первым прототипам (на снимках): IBM считает, что водяное охлаждение схем не сказало своего последнего слова.
В будущем можно испытать в роли теплоносителя смесь воды и микрокапелек масла (аналог плазмы крови и кровяных клеток). Для снижения жидкостного трения и насосных потерь поверхности микроканалов можно сделать гидрофобными... В общем, тут ещё поле непаханое для исследований (иллюстрации IBM Research – Zurich).
Компьютер такого рода должен оказаться быстрым, компактным и "зелёным". Последнему обстоятельству обрадуются не только экологи. "В будущем компьютеры будут доминировать сообразно энергетическим затратам — работа дата-центра будет обходиться дороже, чем его постройка", — прогнозирует Мишель.
Собственно, уже сейчас владельцы мощных конгломератов компьютеров ощущают на своих кошельках, сколь немало стоит подпитывать "прогресс" из розетки. По оценке аналитической компании IDC, в прошлом году дата-центры Земли "сожгли" 330 тераватт-часов или примерно два процента от мировой выработки электроэнергии.
http://www.membrana.ru/articles/technic/2010/11/15/200300.html
|