<div dir="ltr">I'm looking for some advice on the best way/how to loop in thousands of bounding coordinates into a pdal pipeline.<div><br></div><div>I have a csv (and a geojson) of several thousand min/max x/y and a unique ID. The AOI's are not very big, so the pipeline runs quickly, but there are a lot of AOIs to capture! I'm querying an entwine dataset, the extent of which is national, so I'm limiting the data with a bounding box of each AOI.</div><div><br></div><div>My pipeline currently runs HAG and Ferry Z filter, then uses the gdal.writer to make a GeoTiff at 1m resolution. It works perfectly when I manually enter in a set of test coordinates. How can I scale this to loop and update the bounds automatically?</div><div><br></div><div>I'm running this locally on a MacBook Pro.</div><div><br></div><div>Thank you, any advice is appreciated!<br><div><br></div><div><br clear="all"><div><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div dir="ltr"><span><div><div dir="ltr"><div><div><div><div>Jason McVay<br></div></div><br></div>MS Geography, Virginia Tech<br></div>BA Environmental Studies, University of Montana<br><a href="http://www.linkedin.com/in/jasonmcvay86/" title="View public profile" name="SignatureSanitizer_SafeHtmlFilter_UNIQUE_ID_SafeHtmlFilter_14933b4cad52e0be_SafeHtmlFilter_webProfileURL" target="_blank">www.linkedin.com/in/jasonmcvay86/</a></div></div><div><br></div></span></div></div></div></div></div></div></div>