<div dir="ltr">Hello, I am following the documentation on <div><br></div><div><a href="https://pypi.python.org/pypi/PDAL">https://pypi.python.org/pypi/PDAL</a><br></div><div><br></div><div>In order to test simply opening a LAS file with PDAL as shown in the example, on a fresh Debian stretch vanilla install.</div><div><br></div><div>I think there is a small typo in the line</div><div><br></div><div>pipeline = pdal.Pipeline(pipeline)<br></div><div>should be</div><div>pipeline = pdal.Pipeline(json)<br></div><div><br></div><div>When I try to execute the script, I get the following errors</div><div><br></div><div><div>>>> pipeline = pdal.Pipeline(json)</div><div>>>> pipeline.validate()</div><div>Warning 1: Cannot find pcs.csv</div><div>True</div><div>>>> pipeline.loglevel = 9</div><div>>>> count = pipeline.execute()</div><div>>>> arrays = pipeline.arrays</div><div>RuntimeError: _ARRAY_API is not PyCObject object</div><div>Segmentation fault</div></div><div><br></div><div><br></div><div>For the first warning, I have my GDAL_DATA path set and the pcs.csv file is there</div><div><div>$ sudo find  / -name pcs.csv -type f</div><div>/usr/share/gdal/2.1/pcs.csv</div></div><div><br></div><div><div>$ echo $GDAL_DATA</div><div>/usr/share/gdal/2.1/</div></div><div><br></div><div>I have installed gdal, pdal, python3-gdal, python3-numpy, python3-pdal so not too sure why the arrays command fails.</div><div><br></div><div>Any help is appreciated, trying to replace liblas as we have memory usage problems with it. When we read multiple LAS files (open and close thousands of LAS files) with liblas the memory just runs out eventually, even with a close() statement. Happens on both windows and linux (thought it was a windows dll problem perhaps). Need to solve this with PDAL and am pretty close ;)</div><div><br></div><div>Thanks for any help</div><div>JF Prieur</div></div>