<div dir="ltr"><div dir="ltr"><div>Is there a way to optimize docker or PDAL to be able to run larger queries on ept files?  Or Is there some info about memory management, or some settings I should be using to facilitate larger queries?  I have been trying to run a test on the JSON pipeline below, and I am only able to get it to run successfully if I set my docker memory to over 6GB....anything less than 6GB will fail.  When successfully run, the resulting LAZ file is only about 150 million points - so, not huge by lidar standards.    I've tried increasing the "threads" keyword to the ept reader, but that didn't seem to help.<br></div><div><br></div><div>{</div><div>    "pipeline": [{</div><div>        "type": "readers.ept",</div><div>        "filename": "<a href="https://s3-us-west-2.amazonaws.com/usgs-lidar-public/USGS_LPC_HI_Oahu_2012_LAS_2015">https://s3-us-west-2.amazonaws.com/usgs-lidar-public/USGS_LPC_HI_Oahu_2012_LAS_2015</a>",</div><div>        "bounds": "([-17606581.532235783, -17598784.955350697],[2441398.6834285296,2448889.512200477])"</div><div>    },</div><div>    {</div><div>        "type" : "writers.las",</div><div>        "filename": "HI_LargeOutput_Local.laz"</div><div>    }]}</div><div><br></div><div>Any ideas would be appreciated.</div><div><br></div><div>Thanks!</div><div><br></div><div>matt.</div><div><div dir="ltr" class="gmail_signature"><div dir="ltr"><div><div dir="ltr">---------------------------<div>Matthew Beckley</div><div>Data Engineer</div><div>UNAVCO/OpenTopography</div><div><a href="mailto:beckley@unavco.org" target="_blank">beckley@unavco.org</a></div>303-381-7487</div></div></div></div></div></div></div>