Прозрачный способ работы с файлами данных, размер которых превышает размер памяти?

Возможный дубликат:
Обрезка огромного (3,5 ГБ) файла CSV для чтения в R

Есть ли у R хороший способ прозрачно работать с данными, которые не помещаются в память? Есть несколько пакетов для работы с большими данными, но я не хочу принимать решение о развертывании одного из них, не понимая, каков фактический интерфейс.

Например, у меня может быть набор записей, которые вместе не умещаются в памяти. Однако, если бы я загрузил подмножество, оно было бы представлено очень простым фреймом данных, и я мог бы делать всевозможные полезные выборки и агрегации этих данных. Есть ли какой-то пакет, который позволил бы мне рассматривать всю коллекцию как единый фрейм данных и прозрачно выполнять с ним одни и те же операции?


person Serge Levin    schedule 08.09.2012    source источник
comment
посетите cran.r-project.org/web/views/HighPerformanceComputing.html и найдите на странице «Большая память» ... кажется, что пакеты ff и bigmemory - это то, что вы ищете.   -  person Ben Bolker    schedule 09.09.2012
comment
@BenBolker Или sqldf. Соответствующие ссылки: stackoverflow .com / questions / 4997612 / stackoverflow.com/questions/3094866/   -  person Ari B. Friedman    schedule 09.09.2012