<div dir="ltr"><div>Hi</div><div><br></div><div>In <a href="http://proj.org/robots.txt">proj.org/robots.txt</a> there is currently this</div><div><span style="font-family:monospace">User-agent: *<br><br>Disallow: # Allow everything<br><br>Sitemap: <a href="https://proj.org/sitemap.xml">https://proj.org/sitemap.xml</a></span></div><div><br></div><div>while in <a href="http://gdal.org/robots.txt">gdal.org/robots.txt</a> this</div><div><span style="font-family:monospace">User-agent: *<br>Allow: /en/latest/<br>Disallow: /en/</span></div><div><br></div><div>That means that any robot is indexing aaaall the proj pages, including old versions (I checked it in Google Console).</div><div><br></div><div>Should we do the same in PROJ as in GDAL?</div><div><br></div><div>Cheers,</div><div>Javier.<br></div></div>