On Wed, Jan 11, 2012 at 2:50 AM, Olaf TNSB <span dir="ltr"><<a href="mailto:still.another.person@gmail.com">still.another.person@gmail.com</a>></span> wrote:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<p>I *think* I want to be able to define both physical proximity and network cost. That is, I want to be able to specify that enough shares are on my local nodes for me to download files (cheap bandwidth) BUT that there are enough shares elsewhere (i.e. far enough away) that a local disaster doesn't destroy all copies.</p>
</blockquote><div>I didn't get into modeling network bandwidth, but my loss modeling paper does provide a mechanism for calculating the probability of loss of a file whose shares are laid out in any conceivable way -- well, to the degree that you can accurately define and measure the risks.</div>
<div><br></div><div>Given a configuration language for defining node relationships and failure probabilities, it would be possible to compute the estimated reliability for any given share placement, and then different placements could be compares to determine which ones meet the desired reliability threshold.</div>
<div> </div></div><div><br></div>-- <br>
<div>Shawn</div>