Расход стяжки на 1м2 тайфун


Тайфун Мастер 44 цементная стяжка , статья, обзор, совет на строительном портале ДивоСтрой

Область применения стяжки Тайфун Мастер №44

Стяжечный состав Тайфун Мастер №44 используется для выравнивания поверхности полов по различным основаниям, а также для ремонта старых стяжек. Может применятся как для наружных так и для внутренних работ.

Основание под стяжку Тайфун Мастер 44 должно быть прочным, чистым, не содержать на своей поверхности жирных, маслянистых пятен и разводов (веществ способных уменьшить адгезию). Перед заливкой раствора отделываемую поверхность необходимо загрунтовать глубокопроникающей грунтовкой (например, Тайфун Мастер №100 или Ceresit CT 17).

Использование Тайфун Мастер №44

Готовится стяжечный раствор путем добавления в сухую смесь чистой проточной воды, в пропорции 4-4,5 литра воды на 25 кг состава. Вымешивание смеси нужно проводить до получения густой однородной массы, используя низкооборотную мешалку (миксер). Полученный раствор необходимо выдержать в течение 5-7 минут и перемешать повторно. Время до начала схватывания разведенного состава составляет около двух часов.

Раствор Тайфун Мастер 44 равномерно распределяется и разравнивается между направляющими маяками при помощи правило-уровня. Для придания стяжке наибольших прочностных и стабильных свойств, рекомендуется использовать армирующую металлическую сетку. Толщина слоя, рекомендуемая производителем – 10-100 мм. Залитый стяжечный раствор необходимо предохранять замораживания и пересушки, а также нагрева выше 25°С.

Средний расход сухой смеси составляет ориентировочно 1,6-1,8 кг. на 1 метр квадратный при толщине слоя 1 мм. Фактический расход может изменяться в зависимости от свойств существующего основания и навыков специалистов.

Сроки хранения, состав, фасовка Тайфун Мастер 44

Срок хранения состава в сухом месте составляет 12 месяцев в герметичной заводской упаковке.

В состав стяжки входят: цемент, полимерное связующее, наполнители и добавки.

Фасуется в мешках по 25 кг.

Состав соответствует СТБ 1307-2002.


Источник: Прочитать на источнике

Супертайфун Гони совершает два выхода на сушу на Филиппинах, один миллион эвакуированных

Тайфун Гони - самый сильный шторм в мире в этом году, он набирает силу со скоростью 225 км / ч (140 миль в час), устойчивыми ветрами и порывами до 310 км / ч (190 миль / ч).

(Фото AP)

1 ноября супертайфун дважды обрушился на восток Филиппин, вызвав сильные ветры и проливные дожди, вынудившие миллион человек эвакуироваться.

Тайфун Гони обрушился на южную часть Лусона, самого большого и самого густонаселенного острова Филиппин, согласно сообщению Reuters.

Тайфун Гони - самый сильный шторм в мире на данный момент в этом году, он набирает силу с устойчивыми ветрами со скоростью 225 км / ч (140 миль в час) и порывами до 310 км / ч (190 миль / ч).

Тайфун приблизился к восточным провинциям Филиппин и достиг берега в Катандуанесе и Албае в регионе Бикол.

.

Профилирование и оптимизация ноутбуков Jupyter - подробное руководство | Автор: Муриз Серифович

Хотя мы все знаем, что преждевременные микрооптимизации являются корнем всех зол, благодаря статье Дональда Кнута «Структурированное программирование с помощью Go To Statements » [1], в конце концов, в какой-то момент в процессе исследования данных вы понимаете не только для текущего «рабочего» решения.

Эвристический подход, который мы обычно используем, рассматривает:

  1. Заставить работать .
  2. Сделать вправо .
  3. Сделайте это быстро .

Прежде чем перейти сразу к третьему пункту и начать рефакторинг нашего кода, важно определить узкие места производительности, чтобы принять обоснованное решение о том, каким образом мы хотим следовать.

Это фундаментальный шаг, если нам нужно добиться максимальной выгоды с наименьшим объемом работы. По правде говоря, одной из самых объемных ошибок в этой ситуации было бы сделать обоснованное предположение и уточнить то, что, по нашему мнению, является основной причиной проблемы.Профилируя наш код, мы устраняем эту уязвимость, поскольку точно знаем, где находятся проблемы.

Поскольку здесь мы используем Jupyter Notebooks, мы можем также захотеть воспользоваться преимуществами, которые идут вместе с ним, такими как магические команды. Магические команды , без сомнения, одно из приятных улучшений для расширения возможностей ноутбука. Подробно рассмотрим:

  • % time и % timeit
  • % prun и % lprun
  • % mprun и % memit
  • %% heat
  • визуализация результатов сеанса профилирования с помощью snakeviz

и изучение следующего:

  • питонический способ кодирования
  • метод оптимизации цикла с векторизацией
  • оптимизация с различными алгоритмами

Наша первая цель состоит в том, чтобы определить, что вызывает у нас головные боли.Как правило, профилирование включает в себя измерение ресурса, для которого вы хотите оптимизировать, будь то использование памяти или время процессора.

В следующих примерах мы рассмотрим, как стремиться к оптимизации, если наши задачи «привязаны к ЦП» (то есть время, потраченное в ЦП), и, в отличие от него, как и почему уделять особое внимание памяти интенсивные задач.

Примечание : В этой статье я , а не , углубляюсь в параллельные или высокопроизводительные вычисления для решения проблем, связанных с узкими местами производительности.Это выходит за рамки этого поста и, возможно, стоит написать о нем в будущем.

Моделирование Монте-Карло - это метод оценки ответа на проблему путем случайной генерации выборок. Они в первую очередь подходят для вычисления приближения «грубой силы» к решению системы, которая может иметь высокую размерность, например DeepMind AlphaGo Zero, где использовался поиск по дереву Монте-Карло.

Мы определим медленный метод, который оценивает число Пи, используя случайно сгенерированные точки данных, а затем ищем способы его оптимизации.Помните, что площадь, покрытая кругом с радиусом 1, вписанным в квадрат, равна точно четверти пи.

Мы получаем значение числа пи, беря отношение площади круга к площади квадрата

единиц четверти круга

, где мы аппроксимируем площадь с помощью наших сгенерированных случайных точек.

π ≈ 3,1417

Рассмотрим следующий код, в котором мы аппроксимируем интеграл:

В цикле while мы генерируем случайную точку и проверяем, попадает ли она в круг или нет.Если это так, мы увеличиваем in_circle на единицу. Мы делаем это n раз и возвращаем отношение , умноженное на , умноженное на 4, чтобы оценить число пи (строка 19).

Или, говоря более математически:

, где

Примечание : что еще хуже, итеративный код может быть реализован с рекурсивным решением. Рекурсивную версию можно найти здесь.

Прежде чем начинать нерешительные итерации оптимизации, важно измерить общее время выполнения функции, которую мы хотим оптимизировать, без каких-либо накладных расходов профилировщика, и сохранить его где-нибудь для дальнейшего использования.

Волшебная команда % time может предложить полезный инструмент для сравнения времени выполнения различных функций (например, эталонного тестирования ).

In [1]: % времени Estimation_pi ()

 Время ЦП: пользовательское 6,2 с, sys: 11,8 мс, всего: 6,21 с 
Время на стене: 6,25 с

Если нас интересует нормализация % time , используйте:

В [2]: % timeit -r 2 -n 5 Estimation_pi ()

, где -r обозначает количество прогонов и -n количество циклов.Что мы получаем:

 6,29 с ± 73,7 мс на цикл (среднее ± стандартное отклонение 2 прогонов, 5 циклов в каждом) 

Наш первый подход занимает 6,29 секунды для оценки числа пи, которое мы будем иметь в виду и вернусь позже.

cProfile

Чтобы действительно узнать, что занимает большую часть времени выполнения, python поставляется с отличным профилировщиком, разбивающим функции выполнения на функции. Это заставляет наше внимание сосредоточиться на критических функциях, предоставляя общее представление о производительности.

В [3]: % prun Estimation_pi ()

Примечание : вы должны помнить, что профилирование обычно увеличивает накладные расходы на ваш код.

Отчет показывает для каждой функции:

  • количество вызовов (ncalls)
  • общее время (totaltime), затраченное на нее, исключая вызовы подфункций
  • сколько времени длилось каждый вызов (percall, исключая и включая)
  • общее время (cumtime), включая все вызовы подфункций

Выходные данные будут записаны в stdout.Если мы хотим сохранить вывод для более поздней проверки, например, с помощью pstats , используйте опцию -D для сохранения на диск.

В [4]: ​​ % prun -D pi.prof Estimation_pi ()

 *** Статистика профиля упорядочена в файл 'pi.prof'. 

Еще одна полезная опция - -s , которая позволяет выполнять сортировку по определенному столбцу. Например, сортировка совокупного времени в порядке убывания:

В [5]: % prun -s кумулятивная оценка_pi ()

Интересным кажется количество вызовов встроенных функций pow (), и . случайный () .Прежде чем мы обратимся к такому большому количеству вызовов, давайте взглянем на гораздо более удобную библиотеку, предоставляющую еще более конкретные отчеты.

Line profiler

% Команда lprun выводит время, затраченное на каждую строку кода, предоставляя нам построчный отчет. Поскольку по умолчанию не поставляется, установите библиотеку с помощью pip

! Pip install line_profiler

и загрузите расширение вручную в записную книжку.

% load_ext line_profiler

С синтаксисом, аналогичным % prun , легко с помощью pi (e) находить горячие точки в коде с той лишь разницей, что функции должны быть определены явно.

В [6]: % lprun -f Estimation_pi Estimation_pi ()

Обратите внимание на длительное время (29,1%), потраченное на оператор if в строке 10. Имейте в виду, что мы можем даже раскрасить отчет выше, что дает нам более интуитивный способ видеть горячие точки.

Все, что нам нужно сделать, это вставить команду %% heat в верхнюю часть ячейки (чтобы использовать расширение load % load_ext heat после установки с помощью ! Pip install py-heat-magic ), и это позволяет Мы видим полностью красный , в то время как цикл подразумевает высокую стоимость процессорного времени, что ясно указывает на возможность оптимизации.

Я просто хочу вкратце упомянуть, что есть хорошая библиотека под названием snakeviz , которая отображает профили в виде солнечных лучей, в которых функции представлены в виде дуг.

Более подробную информацию можно найти здесь.

Optimize

Перед тем, как погрузиться в методы, которые включают зависимости от внешних библиотек, давайте предложим идею сделать вещи более питоническими!

Pythonic означает код, который не только правильно понимает синтаксис, но и следует соглашениям сообщества Python и использует язык так, как он предназначен для использования.

Помните, что каждый вызов функции связан с накладными расходами, поэтому подавляющее большинство вызовов в цикле - это то, что нас сбивает с толку. Цикл while просто увеличивает счетчик на единицу, если выполняется определенное условие. Чтобы сократить код, мы вводим метод sum () , генераторное выражение и удаление pow ().

Уже делая эти три изменения, мы сокращаем количество вызовов функций на 30.37% и увеличение скорости 41,5%.

In [7]: % prun Estimation_pi ()

In [8]: % timeit -r 2 -n 5 Estimation_pi ()

 3,68 с ± 2,39 мс на цикл (среднее ± стандартное . dev. из 2 прогонов, по 5 циклов в каждом) 

Оптимизация с векторизацией

Учитывая тот факт, что мы точно знаем заранее, сколько случайных чисел должно быть сгенерировано, мы можем просто попытаться разместить все перед цикла или вне его .

Вспомните оператор if в строке 10, который занимает почти 30% вычислительного времени. Единственная информация, которую требует этот оператор if , - это две координаты, поэтому их можно снова поместить за пределы цикла.

Если опция доступна, нам следует вообще избегать зацикливания кода. В области науки о данных мы особенно знакомы с NumPy и pandas, высоко оптимизированными библиотеками для численных вычислений. Большим преимуществом в NumPy являются внутренние массивы на основе массивов C, которые хранятся в непрерывном блоке памяти (массив на основе буфера данных) .

Здесь мы создаем все случайные точки в виде массива с формой (n, 2) (строка 9) и подсчитываем, сколько раз выполняется условие, чтобы точка попала в круг (строка 10).

Если мы сейчас протестируем версию numpy,

В [9]: % timeit Estimation_pi ()

 388 мс ± 9,24 мс на цикл (среднее ± стандартное отклонение из 7 прогонов, по 1 циклу в каждом) 

дает 388 мс и, следовательно, в 16 раз быстрее по сравнению с циклом при .Синтаксис Numpy аналогичен стандартным методам Python, вместо sum () мы пишем np.sum () и, по сути, мы больше не перебираем список, вместо этого мы используем векторизованные процедуры numpy.

Профилирование памяти

Работа с большими наборами данных требует четкого представления о потреблении и распределении памяти, происходящих в фоновом режиме. Как уже говорилось ранее, существуют инструменты для мониторинга использования памяти вашего ноутбука.

Используйте % memit привычным образом для % timeit

В [10]: % memit Estimation_pi ()

 пиковая память: 623.36 MiB, приращение: 152,59 MiB 

Мы видим, что функция использует около 600 мебибайт для моделирования 1e7. Моя гипотеза состоит в том, что большую часть вносит выделение большого массива. Доказательство этой гипотезы с помощью % mprun , который проверяет использование памяти на каждой строке.

В [11]: % mprun -f Estimation_pi Estimation_pi ()

Очень интересно выглядит , строка 4 , где приращение составляет 162,8 Мбайт, но на следующей строке общее использование памяти увеличивается только на 0.1. Здесь происходит то, что мы выделяем память в правой части назначения, а затем снова удаляем память, поскольку внутри больше не является массивом numpy.

Чтобы собрать все вместе, ниже используется однострочник, выполняющий то же самое, что и выше, за исключением того, что вместо выделения большого массива с формой (n, 2) мы возводим в квадрат точки x и y по запросу. Хотя мы жертвуем удобочитаемостью, переписывание выражения сокращает количество операций присваивания, что приводит к еще более быстрому решению с 280 мс (в 22 раза быстрее) .

В [9]: % timeit Estimation_pi ()

 280 мс ± 3,06 мс на цикл (среднее ± стандартное отклонение из 7 прогонов, по 1 циклу в каждом) 

Создание массива имеет ограничение доступная системная память. Процесс распределения масштабируется линейно с входным параметром n . Если, например, мы попытаемся установить количество симуляций равным 1e10 , наше ядро ​​выйдет из строя при создании массива. К счастью, этот метод не требует одного большого массива, вместо этого мы разбиваем его на более мелкие части, что позволяет нам масштабировать количество симуляций независимо от системной памяти.

Здесь мы заранее определяем размер массива (строка 9), равный 80 МБ. Мы разделяем количество симуляций для обработки массива numpy размером 80 МБ и увеличиваем каждый раз внутри .

Если бы мы смоделировали заранее с установкой n на 1e10 , мы бы попытались выделить массив размером 80 ГБ (!), Что просто невозможно на стандартной машине. При обновленном методе время расчета будет равно n .

Если мы проверим последнее решение numpy, мы оценим число пи равным 3.1426944 с относительной ошибкой 0,035% за 280 мс. Метод Монте-Карло - отличная идея для получения ответа, который не имеет всех признаков того, что его можно вывести с помощью случайных процедур.

Возможно, мне понадобятся другие расчеты, которые позволят решить эту проблему более продуктивным способом. Самый большой успех любого программирования будет заключаться в изменении общего способа решения проблемы. Неудивительно, что это самое сложное изменение, поскольку требуется обновление и переработка вашего кода.

Алгоритм Чудновского

Хотя существует множество способов вычисления числа Пи с высокой точностью [3], очень быстрым методом является алгоритм Чудновского, который был опубликован братьями Чудновскими в 1989 г. и имеет следующий вид:

рецензию можно найти на сайте Ника Крейг-Вуда. Реализация этого алгоритма - нетривиальная задача и оставлена ​​читателю в качестве упражнения.

Профилирование этого метода приводит к,

В [12]: % timeit -r 1 -n 1000 пи_чудновский (10 ** 100)

 13.6 мкс ± 72 нс на цикл (среднее ± стандартное отклонение из 7 прогонов, 10 циклов в каждом) 

13,6 микросекунд, что не только более чем в 20000 раз быстрее по сравнению с нашей версией numpy monte carlo, но и успешно вычисляет пи с точностью до первых 100 цифр.

Прежде чем можно будет провести оптимизацию, мы должны профилировать и избегать преждевременных предположений о возможных узких местах (тогда как профилировщик никогда не лжет). Для отслеживания потребления процессорного времени и объема памяти Jupyter предлагает удобные волшебные команды, выполняемые непосредственно в ячейках ноутбука.Основные методы оптимизации включают использование выражений генератора и составления списков вместо явных циклов. Кодирование на чистом питоне в редких случаях является поучительным советом, поэтому его следует заменить оптимизированными равными методами из научных библиотек, что приведет к огромному ускорению.

Примечание: Рассмотрите возможность оптимизации в Jupyter Notebook с недоверием, поскольку в этом есть некоторые аспекты, такие как нелинейный рабочий процесс при выполнении ячеек, что на первый взгляд кажется удобным, но с еще одним абстрактным слоем Кроме того, мы теряем контроль над тем, как состояние считывается и сохраняется в памяти.Чем больше абстракции, тем труднее выявить основные проблемы. (Пожалуйста, поправьте меня, если я ошибаюсь.)

В части II планируется изучить возможности Cython и параллельные вычисления в python.

Приветствую отзывы и конструктивную критику.

Ура!

.

Информация о тайфуне> Тайфун> Тайфун / Азиатская пыль

№20 АТСАНИ

Выдано (KST): 2020.11.03. 10:30

Дата (UTC) Позиция Центральное давление (гПа) Максимально устойчивый
Ветер (м / с)
Радиус 15 м / с (км) Радиус 25 м / с (км) Интенсивность Направление движения Скорость движения (км / ч) Радиус с вероятностью 70% (км)
Широта
(N)
Lon
(E)
м / с км / ч
2020.11.03. 00:00 Анализ 19,9 127,3 996 20 72 270
(SW 200)
- N 4
2020.11.03. 12:00 Прогноз 20,0 127,9 994 21 76 280
(SW 220)
- E 6 60
2020.11.04. 00:00 Прогноз 19,7 128,2 990 24 86 290
(SW 230)
- SE 4 120
2020.11.04. 12:00 Прогноз 19,4 127,7 985 27 97 300
(SW 240)
50
(SW 30)
Нормальный WSW 5 150
2020.11.05. 00:00 Прогноз 19,4 125,9 980 29 104 310
(SW 260)
60
(SW 40)
Нормальный Вт 16 180
2020.11.06. 00:00 Прогноз 20,1 120,8 975 32 115 310
(SW 260)
70
(SW 50)
Нормальный Вт 23 250
2020.11.07. 00:00 Прогноз 20,7 115,9 985 27 97 290
(SW 250)
50
(SW 30)
Нормальный Вт 22 350
2020.11.08. 00:00 Прогноз 19,1 111,6 990 24 86 270
(SW 230)
- WSW 22 470
.

Ученый создает камеру, которая снимает в 3D со скоростью 100 миллиардов кадров в секунду, достаточно быстро, чтобы запечатлеть путешествие на свету - RT World News

Ученый создал новую сверхскоростную камеру, которая снимает в 3D и может фиксировать световые волны во время их движения. Впечатляющая машина может помочь нам разгадать одну из величайших загадок физики.

Изобретение Лихонга Ванга является усовершенствованием его оригинальной камеры, которая может захватывать 70 триллионов кадров в секунду в 2D.

Ученый из Калифорнийского технологического института анонсировал свою оригинальную камеру для сжатой сверхбыстрой фотографии (CUP) еще в январе, которая может записывать с поразительной скоростью, но может создавать только плоские изображения.

С тех пор, усердно работая с ограничениями Covid-19, Ван продолжал заниматься и теперь создал камеру, которая может улавливать свет, перемещающийся в трех измерениях, со скоростью 100 миллиардов кадров в секунду. Для контекста, большинство камер смартфонов высокого класса могут снимать только со скоростью 60 кадров в секунду.

Также на rt.com Будущее - сегодня? Ученые достигли сверхпроводимости при комнатной температуре - потенциально революционный прорыв

Другими словами, камера, получившая название «однокадровая стереополяриметрическая сверхбыстрая фотография со сжатием», или сокращенно SP-CUP, может сделать 10 миллиардов снимков менее чем за мгновение ока.

Ван добавил в камеру трехмерный элемент, имитируя то, как люди видят мир вокруг нас, добавляя восприятие глубины изображениям почти так же, как наши два глаза делают для нас.

«Теперь камера стерео», - говорит . «У нас есть одна линза, но она работает как две половинки, которые обеспечивают два вида со смещением. Два канала имитируют наши глаза ».

Компьютер, на котором работает камера SP-CUP, затем обрабатывает два визуальных сигнала в трехмерном фильме, почти так же, как наш мозг обрабатывает визуальные стимулы из окружающего нас мира.

Камера настолько быстрая, что может также улавливать поляризацию световых волн, то есть направление, в котором отдельные волны светового излучения колеблются при движении.

Также на rt.com Астрономы зафиксировали точный момент, когда сверхмассивная черная дыра пожрала всю звезду

Ван считает, что эта технология имеет множество научных применений, но его больше всего волнует перспектива того, что она может помочь разгадать тайну, окружающую сонолюминесценцию, явление, при котором пузырьки, генерируемые звуковыми волнами в жидкостях, испускают свет при схлопывании.

«Некоторые люди считают это одной из величайших загадок физики», - говорит . «Процесс, благодаря которому это происходит, очень загадочен, потому что все происходит так быстро, и мы задаемся вопросом, может ли наша камера помочь нам в этом разобраться».

Думаете, вашим друзьям будет интересно? Поделитесь этой историей!

.

Смотрите также