<div dir="ltr">Likwise, I agree with Noel.  Appreciate the input!<div><br></div><div>And Lindor is an E this year, gentlemen.  Not so much the human vacuum as last year.</div><div><br></div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Mar 27, 2018 at 11:21 AM, Noel Steere <span dir="ltr"><<a href="mailto:noel.steere@rcn.com" target="_blank">noel.steere@rcn.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Thanks for the mini-primer at the end, Sean!<br>
<br>
I mean that sincerely; I noticed the change in data source when you announced it two years ago, but didn’t have a good idea of how IE was utilized, leaving me to guess based on comparing players (how does Segura stack up to Lindor in these probability buckets?).<br>
<br>
Any thought of moving outfield range towards Statcast?  That would seem to be the ultimate measure of defense.<br>
<br>
Sent from my iPhone<br>
<div class="HOEnZb"><div class="h5"><br>
> On Mar 27, 2018, at 9:59 AM, Sean Sweda <<a href="mailto:sweda@ibl.org">sweda@ibl.org</a>> wrote:<br>
><br>
> The primary data source for range ratings was changed to the Inside Edge data published on Fangraphs, as announced here:<br>
><br>
> <a href="https://lists.ibl.org/pipermail/members/2016-February/001551.html" rel="noreferrer" target="_blank">https://lists.ibl.org/<wbr>pipermail/members/2016-<wbr>February/001551.html</a><br>
><br>
> Fangraphs UZR range runs (RngR) is also used as a secondary data source, primarily for validation but also because using it allows some in-season visibility given that the IE data is not synthesized by Fangraphs into an aggregated metric.<br>
><br>
> When the data source was switched the mapping methodology was also changed.  Plays made above/below average are converted into a runs saved metric and then mapped into a range rating based on the number of expected runs saved based on projected distribution of IFR/OFR plays.  For example, given the average expected distribution of IFR/OFR plays the difference between A (100%) to K (0%) range at 3B would be approximately 44 runs.  That means in order to gain an A range a 3B would need to grade out over +20 runs per season.  For positions that have more plays (e.g. SS, CF) this number would need to be even higher.<br>
><br>
> Jace Peterson got a good range rating because he made 1/1 of plays rated "unlikely" by IE and 2/2 rated "even" by IE.  An "average" result would probably be about 1/3 of those plays.  When you pro-rate the runs saved from his 66 innings at 3B to a full season you get an very large value.  This is pulled back down by combination with the secondary data source (UZR) and the capping mechanisms that are applied to low playing time players, resulting in "D".<br>
><br>
> My intention has been to create a detailed write-up on the blog, but I've only got so much time...<br>
><br>
> TLDR:<br>
> 1) range is based on IE (and UZR), UZR is a decent approximation in-season<br>
> 2) A/B ratings are very rare now<br>
> 3) small sample size "flukes" are mitigated but still exist<br>
><br>
><br>
> Sean<br>
><br>
<br>
<br>
</div></div></blockquote></div><br></div>