<div dir="ltr">1) I'm not sure what you mean with "seed" file. Do you mean create it in a postgres table? Or more like a config file that is read by pdal pipeline?<div>It would be nice if the pipeline file/lasreader could deal with a directory instead of a file.<div>So in de pipeline.xml file it would look like:</div><div><div><Reader type="readers.las"></div><div>                    <Option<span style="line-height:1.5"> name="directory">/tmp/mylasfiles</Option></span></div></div><div>All files have the same schema, I don't have to worry about that.<br></div><div><br><div>2) Exactly</div></div></div><div><br></div><div>I'm not unhappy with the way I'm doing it now by the way, but people with less skills in batch processing could be saved a lot of worries if it could be all handled from the pdal pipeline command.</div></div><br><div class="gmail_quote"><div dir="ltr">On Mon, 28 Sep 2015 at 16:10 Howard Butler <<a href="mailto:howard@hobu.co">howard@hobu.co</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">To clarify, the workflow you desire is:<br>
<br>
1) Create a table with a "seed" file that contains the schema/items you wish to load<br>
2) Load up 1000s of files into that single table<br>
<br>
If so, maybe we should modify the pgpointcloud writer to make that scenario easier to achieve. I don't think it would be too difficult.<br>
<br>
Howard</blockquote></div>