<div dir="ltr"><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Oct 26, 2015 at 1:20 PM, Newcomb, Doug <span dir="ltr"><<a href="mailto:doug_newcomb@fws.gov" target="_blank">doug_newcomb@fws.gov</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">multiple files at the 4.2 point las 1.2 limit! I can live with slow, just concerned about the memory demands working with larger areas.</blockquote></div><br></div><div class="gmail_extra">The processing goes by row chunks. By default everything is in the memory. You can say that only half of rows will be in the memory at a time by percent=50 (you have to guess how much memory it will take). It will be (much) slower because it will iterate over the files (twice in this case). I was not able to do any tests with large amounts of points but the only problem will be capacity of some counters for percentage and report. The actual processing takes one point at a time, so there shouldn't be any limit. This is by the way still the same as before, I haven't changed anything in the way how this is handled. Let me know if this doesn't address your concerns.<br></div></div>