<div dir="ltr">Hi Massi,<div>using multiple single instances of GRASS had advantages (in our workflow) when tiling: each tile was sent in its own mapset to a different instance for processing. </div><div>I am aware that this can be done on HPC locally. However, doing this on the cloud had the advantage (for us) to be able to use many more instances than the cores available locally. </div><div><br></div><div>I think you are right and I/O operation and concurrent database operations will be probably slower, but our workflow focus mainly on raster operations and <span style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:small;font-style:normal;font-variant-ligatures:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:start;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;background-color:rgb(255,255,255);text-decoration-style:initial;text-decoration-color:initial;float:none;display:inline">integrated GRASS / R models. If these operations can be tiled, then there are advantages in doing so on different instances, when one does not have access to enough local cores. </span></div><div><br></div><div>I am trying to tidy up the workflow used to be able to share. And I am looking forward to see other workflows.</div><div><br></div><div>Thanks</div><div><br></div><div>Laura</div></div><div class="gmail_extra"><br><div class="gmail_quote">On 23 May 2018 at 21:08, Massi Alvioli <span dir="ltr"><<a href="mailto:nocharge@gmail.com" target="_blank">nocharge@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Laura,<br>
<br>
well, not actually - it does not answer my question. I mean, I am<br>
pretty sure one can have GRASS up and running on some cloud instance,<br>
but the point is: when it comes to performance, is that convenient? I<br>
mean multi-process performance, of course. There is not much point on<br>
running single GRASS instances, if not for very peculiar applications,<br>
right? I bet it is not convenient, on any level, either if we look at<br>
I/O operations, or mapcalc operations, not to talk about concurrent<br>
database operations ... I might be wrong, of course. But my experience<br>
with cloud environments and parallel processing were rather<br>
disappointing. On some un-related problem (I mean, not GRASS-related),<br>
I tried something here <a href="https://doi.org/10.30437/ogrs2016_paper_08" rel="noreferrer" target="_blank">https://doi.org/10.30437/<wbr>ogrs2016_paper_08</a>,<br>
with little success. I can't imagine a reason why it should be<br>
different using GRASS modules, while I found undoubtfully good<br>
performance on HPC machines.<br>
<span class="HOEnZb"><font color="#888888"><br>
M<br>
</font></span><div class="HOEnZb"><div class="h5"><br>
2018-05-23 16:35 GMT+02:00 Laura Poggio <<a href="mailto:laura.poggio@gmail.com">laura.poggio@gmail.com</a>>:<br>
> Hi Massi,<br>
> we managed to run GRASS on different single-core instances on a cloud<br>
> provider. It was a bit tricky (initially) to set up the NFS mount points. I<br>
> am still exploring the different types of storage possible and what would be<br>
> cheaper and more efficient.<br>
><br>
> I hope this answers your question.<br>
><br>
> Once the workflow is more stable I hope I will be able to share it more<br>
> widely.<br>
><br>
> Thanks<br>
><br>
> Laura<br>
><br>
> On 23 May 2018 at 14:37, Massi Alvioli <<a href="mailto:nocharge@gmail.com">nocharge@gmail.com</a>> wrote:<br>
>><br>
>> Hi Laura,<br>
>><br>
>> the effort on cloud providers is probably useless. Was it different in<br>
>> your case?<br>
>><br>
>><br>
>> M<br>
>><br>
>> 2018-05-22 10:12 GMT+02:00 Laura Poggio <<a href="mailto:laura.poggio@gmail.com">laura.poggio@gmail.com</a>>:<br>
>> > I am really interested in this. I am experimenting with different<br>
>> > settings<br>
>> > to use GRASS on HPC, more specifically on multi-core local machines and<br>
>> > on<br>
>> > single-core multiple instances on a cloud provider. It would be great to<br>
>> > share experiences with other people fighting the same problems.<br>
>> ><br>
>> > Thanks<br>
>> ><br>
>> > Laura<br>
>> ><br>
>> > On 20 May 2018 at 12:32, Moritz Lennert <<a href="mailto:mlennert@club.worldonline.be">mlennert@club.worldonline.be</a>><br>
>> > wrote:<br>
>> >><br>
>> >> Le Sun, 20 May 2018 09:30:53 +0200,<br>
>> >> Nikos Alexandris <<a href="mailto:nik@nikosalexandris.net">nik@nikosalexandris.net</a>> a écrit :<br>
>> >><br>
>> >> > * Massi Alvioli <<a href="mailto:nocharge@gmail.com">nocharge@gmail.com</a>> [2018-05-17 15:01:39 +0200]:<br>
>> >> ><br>
>> >> > >2018-05-17 10:09 GMT+02:00 Moritz Lennert<br>
>> >> > ><<a href="mailto:mlennert@club.worldonline.be">mlennert@club.worldonline.be</a><wbr>>:<br>
>> >> > ><br>
>> >> > >Hi,<br>
>> >> > ><br>
>> >> > >> [I imagine your mail was supposed to go onto the mailing list and<br>
>> >> > >> not just to me...]<br>
>> >> > ><br>
>> >> > >sure my answer was for everyone to read, I believe I tried to send<br>
>> >> > > it<br>
>> >> > >again afterwards..<br>
>> >> > >something must have gone wrong.<br>
>> >> > ><br>
>> >> > >> I just presented GRASS and a short overview over GRASS on HPC<br>
>> >> > >> yesterday at the FOSS4F-FR and there was a lot of interest for<br>
>> >> > >> this. Several people asked me about specific documentation on the<br>
>> >> > >> subject.<br>
>> >> > ><br>
>> >> > >What we did about GRASS + HPC was for specific production purposes<br>
>> >> > >and no documentation<br>
>> >> > >whatsoever wascreated, basically due to lack of time.. so I find it<br>
>> >> > >hard to say whether this is going<br>
>> >> > >to change in the near future:). Surely the topic is of wide interest<br>
>> >> > >and worth being discussed in<br>
>> >> > >several contexts.<br>
>> >> > ><br>
>> >> > >> Currently, I'm aware of the following wiki pages which each<br>
>> >> > >> potentially touches on some aspects of HPC:<br>
>> >> > ><br>
>> >> > >I must admit that existing documentation/papers did not help much.<br>
>> >> > >Well, did not help at all, actually.<br>
>> >> > >One major problem in my opinion/experience is that<br>
>> >> > >multi-core/multi-node machines can be really<br>
>> >> > >different from each other, and parallelization strategies very<br>
>> >> > >purpose-specific, so that creating<br>
>> >> > >general-purpose documents/papers, or even software, *may* be a<br>
>> >> > >hopeless effort. Smart ideas<br>
>> >> > >are most welcome, of course:)<br>
>> >> ><br>
>> >> > Dear Massimo and all,<br>
>> >> ><br>
>> >> > Being a beginner in massively processing Landsat 8 images using JRC's<br>
>> >> > JEODPP system (which is designed for High-Throughput,<br>
>> >> > <a href="https://doi.org/10.1016/j.future.2017.11.007" rel="noreferrer" target="_blank">https://doi.org/10.1016/j.<wbr>future.2017.11.007</a>), I found useful notes<br>
>> >> > in<br>
>> >> > the Wiki (notably Veronica's excellent tutorials) and elsewhere, got<br>
>> >> > specific answers through the mailing lists and learned a lot in<br>
>> >> > on-site discussions during the last OSGeo sprint, for example.<br>
>> >> ><br>
>> >> > Nonetheless, I think to have learned quite some things the hard way.<br>
>> >> > In this regard, some answers to even "non-sense" questions are worth<br>
>> >> > documenting.<br>
>> >> ><br>
>> >> > My aim is to transfer notes of practical value. Having HPC and HTC<br>
>> >> > related notes in a wiki, will help to get started, promote best<br>
>> >> > practices, learn through common mistakes and give an overview for the<br>
>> >> > points Peter put in this thread's first message.<br>
>> >><br>
>> >> +1<br>
>> >><br>
>> >> ><br>
>> >> > I hope it's fine to name the page "High Performance Computing".<br>
>> >> > Please<br>
>> >> > advise or create a page with another name if you think otherwise.<br>
>> >><br>
>> >><br>
>> >> +1<br>
>> >><br>
>> >> Moritz<br>
>> >> ______________________________<wbr>_________________<br>
>> >> grass-user mailing list<br>
>> >> <a href="mailto:grass-user@lists.osgeo.org">grass-user@lists.osgeo.org</a><br>
>> >> <a href="https://lists.osgeo.org/mailman/listinfo/grass-user" rel="noreferrer" target="_blank">https://lists.osgeo.org/<wbr>mailman/listinfo/grass-user</a><br>
>> ><br>
>> ><br>
>> ><br>
>> > ______________________________<wbr>_________________<br>
>> > grass-user mailing list<br>
>> > <a href="mailto:grass-user@lists.osgeo.org">grass-user@lists.osgeo.org</a><br>
>> > <a href="https://lists.osgeo.org/mailman/listinfo/grass-user" rel="noreferrer" target="_blank">https://lists.osgeo.org/<wbr>mailman/listinfo/grass-user</a><br>
><br>
><br>
</div></div></blockquote></div><br></div>