<div dir="ltr">三浦です。<div><br></div><div>先月、基盤地図情報のコンバーターについて、取組をご紹介しました。</div><div>現在、テストケースで悩んでおり、皆さんの知見をお聞かせ頂きたいです。</div><div><br></div><div>FGDConvプロジェクト</div><div><a href="https://github.com/miurahr/fgdconv">https://github.com/miurahr/fgdconv</a><br></div><div><br></div><div>テスト結果</div><div><a href="https://travis-ci.org/miurahr/fgdconv/builds/223815639">https://travis-ci.org/miurahr/fgdconv/builds/223815639</a><br></div><div><br></div><div>こちらの結果で、生成されるべきデータの正解を、GDALの</div><div>C++版のコマンドで生成しました。</div><div>ところが、PythonのGDALで生成したものと、値が異なるというのです。</div><div><br></div><div>結果3132行目を細かく見ますと、</div><div>実際:139.718509733734<br></div><div>期待:139.718509733734379<br></div><div>のように、桁が3桁も違っています。値はあっているようです。</div><div><br></div><div>なぜ、こんなに桁の精度が違うのでしょう?</div><div><br></div><div>該当するコードは、この辺ですが、値をPython側で明示的に処理しているわけではないので、不思議に思っています。</div><div><a href="https://github.com/miurahr/fgdconv/blob/master/fgdconv/ogr2ogr.py#L82">https://github.com/miurahr/fgdconv/blob/master/fgdconv/ogr2ogr.py#L82</a><br></div><div><br></div><div>三浦</div></div>