<div dir="ltr">Hi Massi,<div>we managed to run GRASS on different single-core instances on a cloud provider. It was a bit tricky (initially) to set up the NFS mount points. I am still exploring the different types of storage possible and what would be cheaper and more efficient. </div><div><br></div><div>I hope this answers your question.</div><div><br></div><div>Once the workflow is more stable I hope I will be able to share it more widely.</div><div><br></div><div>Thanks</div><div><br></div><div>Laura</div></div><div class="gmail_extra"><br><div class="gmail_quote">On 23 May 2018 at 14:37, Massi Alvioli <span dir="ltr"><<a href="mailto:nocharge@gmail.com" target="_blank">nocharge@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Laura,<br>
<br>
the effort on cloud providers is probably useless. Was it different in<br>
your case?<br>
<span class="HOEnZb"><font color="#888888"><br>
<br>
M<br>
</font></span><div class="HOEnZb"><div class="h5"><br>
2018-05-22 10:12 GMT+02:00 Laura Poggio <<a href="mailto:laura.poggio@gmail.com">laura.poggio@gmail.com</a>>:<br>
> I am really interested in this. I am experimenting with different settings<br>
> to use GRASS on HPC, more specifically on multi-core local machines and on<br>
> single-core multiple instances on a cloud provider. It would be great to<br>
> share experiences with other people fighting the same problems.<br>
><br>
> Thanks<br>
><br>
> Laura<br>
><br>
> On 20 May 2018 at 12:32, Moritz Lennert <<a href="mailto:mlennert@club.worldonline.be">mlennert@club.worldonline.be</a>><br>
> wrote:<br>
>><br>
>> Le Sun, 20 May 2018 09:30:53 +0200,<br>
>> Nikos Alexandris <<a href="mailto:nik@nikosalexandris.net">nik@nikosalexandris.net</a>> a écrit :<br>
>><br>
>> > * Massi Alvioli <<a href="mailto:nocharge@gmail.com">nocharge@gmail.com</a>> [2018-05-17 15:01:39 +0200]:<br>
>> ><br>
>> > >2018-05-17 10:09 GMT+02:00 Moritz Lennert<br>
>> > ><<a href="mailto:mlennert@club.worldonline.be">mlennert@club.worldonline.be</a><wbr>>:<br>
>> > ><br>
>> > >Hi,<br>
>> > ><br>
>> > >> [I imagine your mail was supposed to go onto the mailing list and<br>
>> > >> not just to me...]<br>
>> > ><br>
>> > >sure my answer was for everyone to read, I believe I tried to send it<br>
>> > >again afterwards..<br>
>> > >something must have gone wrong.<br>
>> > ><br>
>> > >> I just presented GRASS and a short overview over GRASS on HPC<br>
>> > >> yesterday at the FOSS4F-FR and there was a lot of interest for<br>
>> > >> this. Several people asked me about specific documentation on the<br>
>> > >> subject.<br>
>> > ><br>
>> > >What we did about GRASS + HPC was for specific production purposes<br>
>> > >and no documentation<br>
>> > >whatsoever wascreated, basically due to lack of time.. so I find it<br>
>> > >hard to say whether this is going<br>
>> > >to change in the near future:). Surely the topic is of wide interest<br>
>> > >and worth being discussed in<br>
>> > >several contexts.<br>
>> > ><br>
>> > >> Currently, I'm aware of the following wiki pages which each<br>
>> > >> potentially touches on some aspects of HPC:<br>
>> > ><br>
>> > >I must admit that existing documentation/papers did not help much.<br>
>> > >Well, did not help at all, actually.<br>
>> > >One major problem in my opinion/experience is that<br>
>> > >multi-core/multi-node machines can be really<br>
>> > >different from each other, and parallelization strategies very<br>
>> > >purpose-specific, so that creating<br>
>> > >general-purpose documents/papers, or even software, *may* be a<br>
>> > >hopeless effort. Smart ideas<br>
>> > >are most welcome, of course:)<br>
>> ><br>
>> > Dear Massimo and all,<br>
>> ><br>
>> > Being a beginner in massively processing Landsat 8 images using JRC's<br>
>> > JEODPP system (which is designed for High-Throughput,<br>
>> > <a href="https://doi.org/10.1016/j.future.2017.11.007" rel="noreferrer" target="_blank">https://doi.org/10.1016/j.<wbr>future.2017.11.007</a>), I found useful notes in<br>
>> > the Wiki (notably Veronica's excellent tutorials) and elsewhere, got<br>
>> > specific answers through the mailing lists and learned a lot in<br>
>> > on-site discussions during the last OSGeo sprint, for example.<br>
>> ><br>
>> > Nonetheless, I think to have learned quite some things the hard way.<br>
>> > In this regard, some answers to even "non-sense" questions are worth<br>
>> > documenting.<br>
>> ><br>
>> > My aim is to transfer notes of practical value. Having HPC and HTC<br>
>> > related notes in a wiki, will help to get started, promote best<br>
>> > practices, learn through common mistakes and give an overview for the<br>
>> > points Peter put in this thread's first message.<br>
>><br>
>> +1<br>
>><br>
>> ><br>
>> > I hope it's fine to name the page "High Performance Computing". Please<br>
>> > advise or create a page with another name if you think otherwise.<br>
>><br>
>><br>
>> +1<br>
>><br>
>> Moritz<br>
>> ______________________________<wbr>_________________<br>
>> grass-user mailing list<br>
>> <a href="mailto:grass-user@lists.osgeo.org">grass-user@lists.osgeo.org</a><br>
>> <a href="https://lists.osgeo.org/mailman/listinfo/grass-user" rel="noreferrer" target="_blank">https://lists.osgeo.org/<wbr>mailman/listinfo/grass-user</a><br>
><br>
><br>
><br>
> ______________________________<wbr>_________________<br>
> grass-user mailing list<br>
> <a href="mailto:grass-user@lists.osgeo.org">grass-user@lists.osgeo.org</a><br>
> <a href="https://lists.osgeo.org/mailman/listinfo/grass-user" rel="noreferrer" target="_blank">https://lists.osgeo.org/<wbr>mailman/listinfo/grass-user</a><br>
</div></div></blockquote></div><br></div>