<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">2016-10-04 22:22 GMT+02:00 Markus Metz <span dir="ltr"><<a href="mailto:markus.metz.giswork@gmail.com" target="_blank">markus.metz.giswork@gmail.com</a>></span>:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><span class="gmail-">On Tue, Oct 4, 2016 at 5:42 PM, Sören Gebbert<br>
<<a href="mailto:soerengebbert@googlemail.com">soerengebbert@googlemail.com</a>> wrote:<br>
> Hi,<br>
>><br>
>><br>
>> ><br>
>> > You are very welcome to write the missing tests for core modules.<br>
>> ><br>
>> > However, i don't understand the argument that because many core modules<br>
>> > have<br>
>> > no tests, therefore new modules don't need them. If developers of addon<br>
>> > module are serious about the attempt to make their modules usable and<br>
>> > maintainable for others, then they have to implement tests. Its and<br>
>> > integral<br>
>> > part of the development process and GRASS has a beautiful test<br>
>> > environment<br>
>> > hat makes writing tests easy. Tests and documentation are part of coding<br>
>> > and<br>
>> > not something special. I don't think this is a hard requirement.<br>
>> ><br>
>> > There is a nice statement that is not far from the truth: Untested code<br>
>> > is<br>
>> > broken code.<br>
>><br>
>> these gunittests only test if a module output stays the same. This<br>
><br>
><br>
> This is simply wrong, please read the gunittest documentation.<br>
<br>
</span>but then why does<br>
<span class="gmail-">><br>
> The gunittest for the v.stream.order addon is an example how its done:<br>
> <a href="https://trac.osgeo.org/grass/browser/grass-addons/grass7/vector/v.stream.order/testsuite/test_stream_order.py" rel="noreferrer" target="_blank">https://trac.osgeo.org/grass/<wbr>browser/grass-addons/grass7/<wbr>vector/v.stream.order/<wbr>testsuite/test_stream_order.py</a><br>
<br>
</span>assume certain order numbers for features 4 and 7? What if these order<br>
numbers are wrong?<br></blockquote><div><br></div><div>The checked order numbers are validated by hand. The test example is based on artificial data, that i have created, for which i know what the correct order numbers are. Hence i can test if certain features have specific order numbers, since i know the correct solution.</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><br>
Recently I fixed bugs in r.stream.order, related to stream length<br>
calculations which are in turn used to determine stream orders. The<br>
gunittest did not pick up 1) the bugs, 2) the bug fixes.<br></blockquote><div><br></div><div>Then better test implementations are required that checks for correct output. If a bug was found a test should be written to check the bugfix.</div><div>Have a look at this commit that adds two new tests to validate the provided bugfix:</div><div><br></div><div><a href="https://trac.osgeo.org/grass/changeset/69586">https://trac.osgeo.org/grass/changeset/69586</a></div><div><br></div><div>A one line bugfix and 50 lines of test code. :)</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<span class="gmail-"><br>
><br>
> You can write gunittests that will test every flag, every option, their<br>
> combination and any output of a module. I have implemented plenty of tests,<br>
> that check for correct error handling. Writing tests is effort, but you have<br>
> to do it anyway. Why not implementing a gunittest for every feature while<br>
> developing the module?<br>
>><br>
>><br>
>> My guess for the r.stream.* modules is at least 40 man hours of<br>
>> testing to make sure they work correctly. That includes evaluation of<br>
>> float usage, handling of NULL data, comparison of results with and<br>
>> without the -m flag. Testing should be done with both high-res (LIDAR)<br>
>> and low-res (e.g. SRTM) DEMs.<br>
><br>
><br>
> Tests can be performed on artificial data that tests all aspects of the<br>
> algorithm. Tests that show the correctness of the algorithm for specific<br>
> small cases should be preferred. However, large data should not be an<br>
> obstacle to write a test.<br>
<br>
</span>I agree, for tests during development, not for gunittests.<br>
<br>
>From the examples I read, gunittests expect a specific output. If the<br>
expected output (obtained with an assumed correct version of the<br>
module) is wrong, the gunittest is bogus. gunittests are ok to make<br>
sure the output does not change, but not ok to make sure the output is<br>
correct. Two random examples are r.stream.order and r.univar.<br></blockquote><div><br></div><div>I don't understand your argument here or i have a principal problem in understanding the test topic.<br></div><div><br></div><div>You have to implement a test that checks for correct output, this is the meaning of a test. You have to design a test scenario from which you know what the correct solution is and then you test for the correct solution. What is with r.univar? Create a test map with a specific number of cells with specific values and test if r.univar is able to compute the correct values that you have validated by hand.</div><div><br></div><div>-- what is the mean, min and max of 10 cells each with value 5? Its 5! -- </div><div><br></div><div>The most simple check for that is the raster range check in gunittest. If you know what the range of the resulting raster map has to be, then you can test for it. If this is not enough then you can check against the uni-variate statistic output of the raster map, since you know for sure what the result is for min, mean, median, max and so on. If this is not sufficient use r.out.ascii and check against the correct solution that you have created beforehand. If this is not sufficient then use pygrass and investigate each raster cell of the resulting output map.</div><div><br></div><div>Best regards</div><div>Soeren</div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<br>
Markus M<br>
<div class="gmail-HOEnZb"><div class="gmail-h5"><br>
><br>
> Best regards<br>
> Soeren<br>
><br>
>><br>
>> my2c<br>
>><br>
>> Markus M<br>
>><br>
>> ><br>
>> > Best<br>
>> > Sören<br>
>> ><br>
>> >><br>
>> >> One thing we could think about is activating the toolbox idea a bit<br>
>> >> more<br>
>> >> and creating a specific OBIA toolbox in addons.<br>
>> >><br>
>> >>> Identified candidates could be added to core once they fulfill the<br>
>> >>> requirements above. Would that happen only in minor releases or would<br>
>> >>> that also be possible in point releases?<br>
>> >><br>
>> >><br>
>> >> Adding modules to core is not an API change, so I don't see why they<br>
>> >> can't<br>
>> >> be added at any time. But then again, having a series of new modules<br>
>> >> can be<br>
>> >> sufficient to justify a new minor release ;-)<br>
>> >><br>
>> >>> Or is that already too much formality and if someone wishes to see an<br>
>> >>> addon in core that is simply discussed on ML?<br>
>> >><br>
>> >><br>
>> >> Generally, I would think that discussion on ML is the best way to<br>
>> >> handle<br>
>> >> this.<br>
>> >><br>
>> >> Moritz<br>
>> >><br>
>> >><br>
>> >> ______________________________<wbr>_________________<br>
>> >> grass-dev mailing list<br>
>> >> <a href="mailto:grass-dev@lists.osgeo.org">grass-dev@lists.osgeo.org</a><br>
>> >> <a href="http://lists.osgeo.org/mailman/listinfo/grass-dev" rel="noreferrer" target="_blank">http://lists.osgeo.org/<wbr>mailman/listinfo/grass-dev</a><br>
>> ><br>
>> > ______________________________<wbr>_________________<br>
>> > grass-dev mailing list<br>
>> > <a href="mailto:grass-dev@lists.osgeo.org">grass-dev@lists.osgeo.org</a><br>
>> > <a href="http://lists.osgeo.org/mailman/listinfo/grass-dev" rel="noreferrer" target="_blank">http://lists.osgeo.org/<wbr>mailman/listinfo/grass-dev</a><br>
><br>
><br>
</div></div></blockquote></div><br></div></div>