<div dir="ltr">It only now occurs to me that you can give command line params to the pipeline as well.... <div>That makes the batching a lot easier, I couldn't ask for more :)</div><div><br></div><div>What would be the benefit of creating a tindex first for the pointclouds? It seems that it would take a considerable amount of extra time to go through the tiling process. For rasters I can see the use but I thought the chipper already deals with a kind of irregular tiling which can be used by a spatial index of postgis. </div><div>Or is the tileindex just a list of las-files in an sqlite dbase? Personally I would stick to batching in that case, it gives me more control on the process.</div><div><br></div><div>Best,</div><div> Tom</div></div><br><div class="gmail_quote"><div dir="ltr">On Mon, 28 Sep 2015 at 16:27 Howard Butler <<a href="mailto:howard@hobu.co">howard@hobu.co</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
> On Sep 28, 2015, at 9:19 AM, Tom van Tilburg <<a href="mailto:tom.van.tilburg@gmail.com" target="_blank">tom.van.tilburg@gmail.com</a>> wrote:<br>
><br>
> 1) I'm not sure what you mean with "seed" file. Do you mean create it in a postgres table? Or more like a config file that is read by pdal pipeline?<br>
<br>
I just mean the first file loaded that creates the table and sets the schema for the point cloud entry.<br>
<br>
<br>
> It would be nice if the pipeline file/lasreader could deal with a directory instead of a file.<br>
> So in de pipeline.xml file it would look like:<br>
> <Reader type="readers.las"><br>
>                     <Option name="directory">/tmp/mylasfiles</Option><br>
> All files have the same schema, I don't have to worry about that.<br>
<br>
We are working to copy GDAL's workflow where the user would create a GDAL-like tile index and then provide that tile index to PDAL pipeline operations. The workflow might be something like:<br>
<br>
> $ pdal tindex files/*.las las-files.sqlite<br>
> $ pdal pipeline pipeline.xml --readers.tindex.filename=las-files.sqlite --writers.pgpointcloud.connection="pg-connection-string-details"<br>
<br>
<br>
<br>
> 2) Exactly<br>
><br>
> I'm not unhappy with the way I'm doing it now by the way, but people with less skills in batch processing could be saved a lot of worries if it could be all handled from the pdal pipeline command.<br>
<br>
Insight into how people actually want to workflow the data will help us. The developer team has a lot of experience with workflowing data with Oracle, but that's not necessarily the way you'd want to do it in pg.<br>
<br>
Howard<br>
<br>
<br>
</blockquote></div>