<div dir="ltr"><div>Hi Alex,<br><br></div><div>Overall, this looks like a solid machine, but I do have a few suggestions considering the details of the hardware configuration.<br></div><div><br>-First, a RAID5 array for the spinning rust pool may leave the pool unduly susceptible to complete failure during recovery from a single drive failure and replacement due to the extreme load on all discs while recreating the data on the replaced disk tending to trigger a subsequent failure. Also, no hot spare is available, leaving the pool running 
in degraded mode

until someone can physically swap the drive. A RAID6 (or ZFS RAIDZ2) configuration having two drives worth of recovery data greatly minimizes such risk.<br></div><div>--Suggest that all 4 hot-swap bays be provisioned with the HGST models listed (512b emulated sector size) in the quote if the 4k native sector size drives are not available -- this can be worked around at the FS level (ashift=12) with minimal performance impact.<br></div><div><br>-Second, RAID5 will seriously reduce the performance of the SSDs, and, especially on writes, increases latency, which somewhat defeats the purpose of utilizing SSDs. A simple mirror array would be much better performing and have the same level of redundancy, while a stripe could be much faster when used as a cache for hot data from the HDDs rather than the primary storage. For heavy write loads, such as databases, MLC SSDs really aren't suitable because of the wear rate and they usually lack of power-loss-protection. A smaller capacity but higher iops NVMe type SSD on the PCI bus would be much more effective for those workloads.<br></div><div>--Suggest identifying workloads needing high-speed storage and determine read vs. write requirements before final selection of SSDs. Use two SATA SSDs in mirror or stripe configuration for bulk storage or cache. Consider PCIe connected NVMe if large number of writes and transactions.<br></div><div><br></div><div>-Third, the memory really is the biggest bottleneck and resource limit, so I would favor increasing that as much as possible over the size of the SSD pool. Unused memory is used to cache filesystem contents to RAM, which is orders of magnitude faster than a SSD, but is there for your workloads when needed.<br></div><div>--Suggest 128GB RAM, making trade-offs against SSD capacity if budget requires.<br><br></div><div>Some general comments on filesystems, software stack, and virtualization, in reverse order.<br><br></div><div>For most of the needs I have seen discussed, full virtualization is far more heavy-handed than necessary -- a container solution such as LXC/LXD would be much more appropriate and allow for much better granularity with lower overhead. A few VMs may be useful for particular projects that need to run their own kernel, low-level services, or suspend and move to another host for some reason, but those are the exception, not the rule. Many tools for managing VMs can also manage containers, and provisioning many containers off the same base template is both very easy and consumes very little additional disk space when used on a CoW filesystem (Copy-on-write) that supports cloning; additionally, backups are both instantaneous and only take up as much space as the changed files. My personal preference is to use ZFS for a filesystem because it supports all levels of the storage stack from disk to filesystem to snapshots and remote backup in a single tool and thus can detect and correct data corruption anywhere in the stack before it can be persisted. LVM2 and associated tools provide mostly similar functionality, but I find them much less intuitive and more difficult to administrate - that's certainly may be just a matter of personal taste and experience.<br><br></div><div>I hope this helps with the purchasing and provisioning decisions.<br><br></div><div>Take care,<br></div><div>   ~~~Chris Giorgi~~~<br></div><div><br></div><div><br><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Feb 12, 2018 at 1:27 PM, Regina Obe <span dir="ltr"><<a href="mailto:lr@pcorp.us" target="_blank">lr@pcorp.us</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Alex,<br>
<br>
This looks good to me +1.  Really excited to have a new Box in place.<br>
<br>
I'm also thinking that with the new box, we could start off-loading osgeo3,4 and allow Lance to upgrade the ganeti on them.<br>
Since we won't have anything mission critical -- after we migrate mission critical stuff to osgeo7, if hardware on osgeo4 fails during upgrade, I assume it wouldn't be a big deal.<br>
As I recall, was it only osgeo4 that had a hardware issue?<br>
<br>
Thanks,<br>
Regina<br>
<div class="HOEnZb"><div class="h5"><br>
-----Original Message-----<br>
From: Sac [mailto:<a href="mailto:sac-bounces@lists.osgeo.org">sac-bounces@lists.<wbr>osgeo.org</a>] On Behalf Of Alex M<br>
Sent: Monday, February 12, 2018 3:54 PM<br>
To: sac >> System Administration Committee Discussion/OSGeo <<a href="mailto:sac@lists.osgeo.org">sac@lists.osgeo.org</a>><br>
Subject: [SAC] OSGeo7 Sever Config Quote<br>
<br>
Here's the latest quote for us to discuss server configuration for OSGeo7.<br>
<br>
<a href="https://drive.google.com/open?id=1X-z66jXXBUZuPqh6EP0d43g2NUCL7xcL" rel="noreferrer" target="_blank">https://drive.google.com/open?<wbr>id=1X-<wbr>z66jXXBUZuPqh6EP0d43g2NUCL7xcL</a><br>
<br>
The plan based on discussions is to manage KVM virtual machines, lvm drives, with libvirt. At such time that we feel we need to go to something more advanced because we are managing multiple physical machines we could convert to ganeti or openstack (less sure about how to convert to openstack).<br>
<br>
The idea was up to 4 virtual machines, each would have someone designated to make sure it was updated, along with use of the unattended upgrades for security patches.<br>
<br>
As quoted I've done RAID 5 SSD, and RAID 5 traditional, 3 drives each.<br>
That will give us fast storage and large storage (think downloads and foss4g archives).<br>
<br>
I did redundant power to maximize uptime.<br>
<br>
RAM is only 64 GB which is up to 16 for each of the Virtual Machines.<br>
<br>
Please discuss and ask questions so we can possibly vote this week at the meeting.<br>
<br>
Thanks,<br>
Alex<br>
______________________________<wbr>_________________<br>
Sac mailing list<br>
<a href="mailto:Sac@lists.osgeo.org">Sac@lists.osgeo.org</a><br>
<a href="https://lists.osgeo.org/mailman/listinfo/sac" rel="noreferrer" target="_blank">https://lists.osgeo.org/<wbr>mailman/listinfo/sac</a><br>
<br>
______________________________<wbr>_________________<br>
Sac mailing list<br>
<a href="mailto:Sac@lists.osgeo.org">Sac@lists.osgeo.org</a><br>
<a href="https://lists.osgeo.org/mailman/listinfo/sac" rel="noreferrer" target="_blank">https://lists.osgeo.org/<wbr>mailman/listinfo/sac</a></div></div></blockquote></div><br></div>