<div dir="ltr">Hi Howard,<div><br></div><div>Ideally the process would be to load a multitude of las files in one go. As far as I know the pdal-pipeline process is only dealing with one las file at a time so what I'm doing is preparing the database with the correct schema in pointcloud_formats, adding the correct pcid id to a pipeline.xml file and then feeding the las files one by one (by copying to a temporary input file) to pdal pipeline. </div><div>That part where I prepare the database went wrong this time, because the output of --pgpointcloudschema apparently doesn't correspond with what pdal actually feeds into pgpointcloud.</div><div><br></div><div>From what I can see in the different schema's, the order of the 'position' is mixed up. One has 'X' on the first position whereas the correct one has 'Intensity' on the first position. I can send you both xml schemas if you like for comparison.</div><div><br></div><div>Best,</div><div> Tom</div></div><br><div class="gmail_quote"><div dir="ltr">On Mon, 28 Sep 2015 at 15:53 Howard Butler <<a href="mailto:howard@hobu.co">howard@hobu.co</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
> On Sep 28, 2015, at 7:19 AM, Andrew Bell <<a href="mailto:andrew.bell.ia@gmail.com" target="_blank">andrew.bell.ia@gmail.com</a>> wrote:<br>
><br>
> I'm don't know what's wrong, but I also don't understand your process.<br>
<br>
If I remember correctly, previously prescribed processes were to create a table/schema to load the data into, and then load each subsequent file pointed at that schema. It may be that the documentation describing how to workflow the data need to be updated.<br>
<br>
Tom,<br>
<br>
Can you describe the overall process you are hoping to achieve?<br>
<br>
Howard</blockquote></div>