<div dir="ltr">I have a las-zip file of 3 gigs and try to run a pdal splitter filter on it. PDAL will try to load the entire file into memory (30 GB) which doesn't fit and segfaults upon that.<div>Would there be an option to split the large las file first into smaller blocks based on extent by simply running over all points and writing them directly to output instead of first caching it?</div><div>I tried the crop filter as well but it also seems to load all points into memory first.</div><div>It is possible with lastools but I would prefer to keep my process within a pdal-based script.</div><div><br></div><div>Best,</div><div> Tom</div></div>