Вопросы по теме 'collect'
mpi собирать данные
Я убедился, что MPI_Gather собирает данные со всех процессов, включая сам корневой процесс.
Как заставить MPI_Gather собирать данные со всех процессов, НЕ включая сам корневой процесс? Или есть альтернативная функция?
2346 просмотров
schedule
24.05.2022
Используйте Python для сбора данных о погоде и записи в файл
Прошу вашего совета/помощи по этому поводу:
Создайте скрипт Python, который:
Каждый час собирайте температуру (например, 29 o C) и текущее состояние (например, ясно) с этого веб-сайта:...
16679 просмотров
schedule
29.04.2022
собирать атрибуты и значения в список строк
У меня есть данные xml, выглядящие так:
<persons>
<person key="M">John Doe</person>
<person key="N">Jane Doe</person>
</persons>
Я хочу собрать их в список карт типа
[[key: M, name: John Doe], [key:...
1090 просмотров
schedule
15.07.2023
Выигрывает ли сборщик мусора от нескольких вызовов функций Collect и WaitForPendingFinalizers()?
Я нашел этот код в Интернете, который добавляется после деинициализации объектов Excel Interop:
GC.Collect();
GC.WaitForPendingFinalizers();
GC.Collect();
GC.WaitForPendingFinalizers();
Является ли это квази-нарушение DRY (вызов GC.Collect()...
745 просмотров
schedule
14.09.2022
Приводит ли чтение нескольких файлов и сбор их к драйверу в искре
Фрагмент кода:
val inp = sc.textFile("C:\\mk\\logdir\\foldera\\foldera1\\log.txt").collect.mkString(" ")
Я знаю, что приведенный выше код читает весь файл, объединяет их в одну строку и выполняет его узел драйвера (одиночное выполнение, а не...
1572 просмотров
schedule
03.05.2024
объект не повторяется при попытке собрать RDD, pyspark
Я супер новичок в Spark. Эта ошибка возникла, когда я пытался собрать результаты из RDD_new после передачи внешней функции верхнего уровня в RDD_old.reduceByKey.
Во-первых, я определил treeStruct:
class treeStruct(object):
def...
1793 просмотров
schedule
13.11.2022
Сбой сбора RDD ()
Вопрос, который, как мне кажется, может принести пользу другим.
Если я побегу
val rdd1 = sc.parallelize( List( "a", "b", "c", "d", "e"))
val rdd1a = rdd1.map(x => (x, 110, 110 - x.toByte ))
rdd1: org.apache.spark.rdd.RDD[String] =...
970 просмотров
schedule
26.06.2023
oracle sql: собрать агрегацию
Я хочу сгруппировать свои записи базы данных по атрибуту и знать, какие записи находятся в каждой группе одновременно. Я собираю идентификаторы сгруппированных записей с помощью функции Oracle COLLECT СБОР Функция
DECLARE
TYPE ids_type IS...
1418 просмотров
schedule
03.03.2023
Как транслировать элементы только определенным рангам без использования подпрограмм MPI_Send и MPI_Recv
Просто общий вопрос:
Я хотел спросить, есть ли возможность передавать элементы только определенным рангам в MPI без использования подпрограмм MPI_Send и MPI_Recv .
224 просмотров
schedule
12.07.2023
Есть ли какая-либо функция в pyspark, которая может выполнять поиск в столбце массива фрейма данных pyspark и проверять наличие строки? & отфильтровать или пометить строку?
df = sqlContext.createDataFrame(pd.DataFrame([('id1', ['a','b','c']),
('id2', ['a','b','d']),
('id3', ['c','e','f'])],...
17 просмотров
schedule
04.10.2022