ПЯТАЯ "КОЛМОГОРОВСКАЯ СТУДЕНЧЕСКАЯ ОЛИМПИАДА ПО ТЕОРИИ ВЕРОЯТНОСТЕЙ" Решения Задача 1. В руке зажаты 6 травинок так, что их концы выступают сверху и снизу. Верхние концы случайным образом разбиваются на пары и попарно связываются между собой. То же делают и с нижними концами. Какова вероятность того, что в результате этой операции все 6 травинок окажутся связанными в одно кольцо? Решение. Если верхние концы уже как-то связаны, то число благоприятных исходов связывания нижних концов, очевидно, одно и то же для всех связываний верхних. Поэтому будем считать, что связка верхних фиксирована. Например, считаем, что связаны травинки номер 1 и 2, номер 3 и 4, номер 5 и 6. Способов связать нижние имеется всего C62 · C42 = 90 (на пером шаге выбираем две травинки из шести, на втором две из оставшихся). Вычислим, сколько из этих способов благоприятных. Выбрать первую связываемую пару можно C62 − 3 способами (есть только три пары, которые выбирать нельзя). После этого остается 4 травинки, у ровно двух из которых связаны верхние концы. Поэтому на втором шаге нельзя выбирать вместе ни их, ни две остающиеся, знаит, имеем 4 способа. Всего получается 48 способов. Ответ: 8/15. Задача 2. Пусть X, Y — независимые гауссовские случайные величины со средним 0 и дисперсией 1. Найти E(X | XY ). Решение. Обозначим f ту борелевскую функцию, для которой E(X|XY ) = f (XY ) п.н. Тогда f (XY ) = E(X|XY ) = −E(−X|(−X)(−Y )) = −f ((−X)(−Y )) = −f (XY ) почти наверное, поскольку вектор (−X, XY ) распределен так же, как случайный вектор (X, XY ). Значит, f (XY ) = 0 п.н. Ответ: 0. Задача 3. Существует ли вероятностное пространство и случайные величины X1 , X2 , . . . на нем со свойствами: • все Xn гауссовские со средним 0 и дисперсией 1; • Xn I(Xn ≤ 0) = Xm I(Xm ≤ 0) для любых n, m; • случайные величины I(Xn ∈ [an , bn ]), n ∈ N независимы для любых an , bn ≥ 0? Решение. Нет, не существует. В самом деле, рассмотрим события Ai = {Xi > 0}, i ∈ N. Каждое из этих событий имеет вероятность 1/2, и все они независимы (так как, например, {Xi > 0} = ∪n∈N {1/n ≤ Xi ≤ n} и события указанного вида для разных i независимы). Значит, дополнения к ним также должны быть независимы. Но эти дополнения совпадают, с точностью до событий нулевой вероятности. Задача 4. Пусть X и Y — независимые случайные величины, причем X имеет непрерывное распределение, т.е. P(X = x) = 0 для любого x ∈ R. Верно ли, что X + Y имеет непрерывное распределение? Решение. Да, верно. В самом деле, пусть µ и ν — распределения X и Y соовтетственно. Тогда для каждого x ∈ R по теореме Фубини имеем Z P(X + Y = x) = I{t + u = x}ν(du)µ(dt) = R2 1 Z Z Z = I{t = x − u}µ(dt)ν(du) = R R P(X = x − u)ν(du) = 0. R Задача 5. Пусть X — случайная величина с EX 2 < ∞. Найти inf EZX по всем неотрицательным случайным величинам Z с EZ 2 ≤ 1. Решение. Имеем EZX = EZXI{X > 0} + EZXI{X < 0}. Очевидно, точная нижняя грань может достигаться только на такой Z, для которой первое слагаемое равно нулю. Действительно, если это не так, то переопределим Z, полагая ее равной нулю на событии {X > 0}, и тогда EZX еще уменьшится. Поэтому далее считаем, что Z уже обладает описанным свойством. Если X ≥ 0, то ответ, очевидно, 0 (достигается при Z = 0). Иначе по неравенству Коши–Буняковского (EZX)2 = (EZXI{X < 0})2 ≤ EZ 2 EX 2 I{X < 0} ≤ EX 2 I{X < 0}, причем равенство достигается только для случайной величины Z = aXI{X < 0}. Чтобы сделать EZX как можно меньше, a выберем так, чтобы EZ 2 = 1, т.е. a = −1/(EX 2 I{X < 0})1/2 . Тогда EZX = aEX 2 I{X < 0}. p Ответ: − EX 2 I{X < 0}. Задача 6. а) Из колоды в 52 карты извлекаются (без возвращения) карты до момента появления червового туза. Найти математическое ожидание этого момента (например, если червовый туз лежит на первом месте, то этот момент равен 1). б) Найти математическое ожидание момента появления первого туза. в) Найти математическое ожидание момента появления первой карты червовой масти. Решение. Будем решать задачу для всех трех пунктов сразу. Пусть среди 52 карт имеется подмножество M из m карт, и мы рассматриваем математическое ожидание появления первой карты из этого подмножества. Добавим к колоде карт еще одну карту (“джокер”) и рассмотрим случайную расстановку новой колоды из 53 карт на окружности (все такие расстановки считаем равновероятными). Тогда распределение всех последовательностей карт, возникающих при извлечении из стандартной колоды, совпадает с распределением набора из 52 карт, выбираемого по часовой стрелке, начиная с первой карты, лежащей после джокера. Итак, достаточно найти математическое ожидание числа карт, находящихся между джокером и первой картой из M, смотря по часовой стрелке и учитывая сам джокер. Эта случайная величина, в свою очередь, распределена так же, как число карт между первой и второй (в том же смысле) картами из M, второй и третьей и т.д., и, наконец, между m-й и джокером. Сумма m + 1 упомянутых случайных величин равна, естественно, 53. Итак, ответ 53/(m + 1). Ответ: а)53/2, б)53/5, в) 53/13. Задача 7. Пусть X — случайная величина, f и g — возрастающие ограниченные функции. Доказать, что случайные величины f (X) и g(X) неотрицательно коррелированы. Решение. Пусть Y — случайная величина, распределенная как X и не зависящая от последней. Тогда cov(f (X), g(X)) = Ef (X)g(X) − Ef (X)g(Y ) = 1 1 = (Ef (X)g(X) − Ef (X)g(Y ) − Ef (Y )g(X) + Ef (Y )g(Y )) = E(f (X) − g(Y ))(g(X) − g(Y )) ≥ 0, 2 2 так как в последнем выражении случайная величина под знаком математического ожидания неотрицательна. 2 Задача 8. Пусть A — σ-алгебра на множестве натуральных чисел, P — вероятностная мера на A. Верно ли, что P можно продолжить до вероятностной меры на σ-алгебре всех подмножеств натуральных чисел? Решение. Да, верно. Разобьем множество N на не более чем счетное число классов эквивалентности B1 , B2 , . . . по следующему правилу: два числа m, n ∈ N эквивалентны друг другу, если для любого A ∈ A либо m и n одновременно принадлежат A, либо они одновременно не принадлежат ему (конечно, некоторые классы могут состоять только из одного числа). Тогда все эти классы эквивалентности являются элементами сигма-алгебры A. В самом деле, например, класс B1 можно представить в виде B1 = ∩i∈B1 ∩j6∈B1 Aij , где Aij ∈ A взято так, что i ∈ Aij , но j 6∈ Aij (по нашему определению эквивалентности такое множество в A найдется). Пусть bi ∈ Bi — наименьшее по порядку число в классе Bi . Продолжим меру P на сигма-алгебру всех подмножеств N, полагая P({bk }) := P(Bk ), k = 1, 2, . . . , а меру всех прочих одноточечных подмножеств полагая равной нулю. Теперь для любого ⊂ N мера P корректно задана формулой X X P(Bk ). P(C ∩ Bk ) = P() = k:bk ∈C k Задача 9. Пусть X1 , X2 , . . . — независимые одинаково распределенные строго положительные случайные величины. Положим Sn = X1 + . . . + Xn . Верно ли, что limn→∞ Xn /Sn = 0 п.н.? Решение. Нет, неверно. Контрпример строится следующим образом. Пусть случайная ве2 личина X1 принимает значения 2m , m ∈ N, с вероятностями pm соовтетственно, где числа pm выберем позднее. Введем события ½ ¾ m2 Am = max Xk > 2 , m ∈ N. k:2m <k≤2k+1 Если событие Am произошло, то в последовательности X1 , X2 , . . . среди первых 2m+1 значений 2 есть хотя бы одно, которое больше 2m . Значит, среди них есть такое значение (скажем, с 2 2 номером j(m) ≤ 2m+1 ), которое больше 2m , а все предшествующие ему не больше 2m . Но тогда 2 2 2 Xj(m) ≥ 2(m+1) ≥ 2m +m+1 ≥ 2m j(m) ≥ Sj(m)−1 , так что Xj(m) 1 ≥ . Sj(m) 2 Итак, если An происходят бесконечно часто, то lim supn→∞ Xn /Sn ≥ 1/2. Остаетя подобрать pm так, чтобы P(An беск. ч.) = 1. События An независимы, так что по второй лемме Бореля– P∞ Кантелли нам достаточно добиться того, чтобы m=1 P(Am ) = +∞. Имеем µ ¶ m2 P(Am ) = 1 − P max m+1 Xk ≤ 2 = m k:2 <k≤2 3 2 Обозначим qm = P∞ m m = 1 − (P(X1 ≤ 2m ))2 = 1 − (p1 + p2 + · · · + pm )2 . k=m+1 pk . Выберем ½ qm = 1 − exp ln(m − 1) − ln m 2m ¾ , m > 1. Непосредственно проверяется, что qm & 0 при m → ∞. Теперь остается взять p1 = p2 = (1 − q2 )/2 и pm = 1 − qm , m > 2. Задача 10. Пусть B — броуновское ¡ движение, выходящее ¢ из 0, f : [0, 1] → R — непрерывная функция, f (0) 6= 0. Доказать, что P mint∈[0,1] (Bt + f (t)) = 0 = 0. Решение. Без ограничения общности считаем, что f (0) > 0 (иначе рассмотрим −B вместо B). В силу непрерывности f существует такое µ > 0, что f (t) > µ при t ∈ (0, µ]. Траектории случайного процесса B с вероятностью 1 непрерывны в нуле, так что maxu∈[0,t] Bu → 0 при t & 0 по вероятности. Поэтому для любого ε > 0 существует такое h > 0, что P(Bt ≥ µ при некотором t ∈ (0, h]) < ε. Пусть δ = min{µ, h} > 0. Имеем µ ¶ µ ¶ µ ¶ P min (Bt + f (t)) = 0 ≤ P min (Bt + f (t)) = 0 + P min (Bt + f (t)) = 0 ≤ t∈[0,1] t∈[0,δ] t∈(δ,1] µ P(Bt ≥ µ при некотором t ∈ (0, δ]) + P µ ¶ min (Bδ + Bt − Bδ + f (t)) = 0 t∈(δ,1] ≤ ¶ ≤ ε + P Bδ + min (Bt − Bδ + f (t)) = 0 . t∈(δ,1] Распределение случайной величины Bδ непрерывно (гауссовская величина с дисперсией δ), а случайная величина mint∈(δ,1] (Bt − Bδ + f (t)) от нее не зависит. По задаче 3 данной олимпиады это означает, что последняя вероятность равна нулю. Итак, вероятность рассматриваемого в задаче события не больше ε, и ввиду произвольности ε равна нулю. Задача 11. Пусть X1 , X2 , . . . — независимые одинаково распределенные случайные величины, причем P(Xn 6= 0) > 0. Положим Sn = X1 + . . . + Xn . Доказать, что lim P(Sn ∈ [a, b]) = 0 для любых a, b. n→∞ Решение. Если Xn постоянны (и не равны нулю), то утверждение задачи очевидно, и далее мы не рассматриваем эту ситуацию. Фиксируем a и b. Пусть ϕ — характеристическая функция X1 , а произвольное число σ > 0. Рассмотрим случайную величину ξ ∼ N (0, σ 2 ), не зависящуе от величин {Xi , i ∈ N}. Характеристическая функция случайной величины Sn + ξ абсолютно интегрируема, и по формуле обращения мы имеем Z b+1 Z 1 2 2 e−itx ϕ(t)n e−t σ /2 dtdx = P(Sn + ξ ∈ [a − 1, b + 1]) = 2π a−1 R 1 = 2π Z ϕ(t)n R eit(b+1)−it(a−1) −t2 σ2 /2 e dt it 4 (1) согласно теореме Фубини. Заметим, что |ϕ(t)| < 1 всюду, кроме, возможно, счетного множества точек. В самом деле, пусть t ∈ R, t 6= 0 — такое число, что |ϕ(t)| = 1. Тогда для некоторого c ∈ R имеем Eeit(X1 +c) = ϕ(t)eitc = 1, так что cos(tX1 +tc) = 1 п.н.1 Значит, все значения X1 с вероятностью 1 содержатся в множестве {−c + 2πk/t, k ∈ Z}. Следовательно, если число t1 также таково, что |ϕ(t1 )| = 1, то для некоторого c1 ∈ R {−c1 + 2πk/t1 , k ∈ Z} ⊂ {−c + 2πm/t, m ∈ Z} . Отсюда легко вывести, что t1 соизмеримо с t. Из неравенства |ϕ(t)| < 1 (почти всюду по мере Лебега) и теоремы Лебега о мажорированной сходимости следует, что интеграл в (1) стремится к нулю при n → ∞. Значит, P(Sn + ξn ∈ [a − 1, b + 1]) → 0, n → ∞. Теперь имеем оценки lim sup P(Sn ∈ [a, b]) ≤ lim sup(P(Sn + ξ ∈ [a − 1, b + 1]) + P(|ξ| ≥ 1)) ≤ n→∞ r Z ∞ 2 2 ≤ lim sup P(Sn + ξ ∈ [a − 1, b + 1]) + P(|ξ| ≥ 1) = P(|ξ| ≥ 1) = e−z /2 dz. π 1/σ Выбором σ последний интеграл можно сделать сколь угодно малым. Значит, рассматриваемый в задаче предел равен нулю. ШЕСТАЯ "КОЛМОГОРОВСКАЯ СТУДЕНЧЕСКАЯ ОЛИМПИАДА ПО ТЕОРИИ ВЕРОЯТНОСТЕЙ" Решения Задача 1. В корзине M зеленых яблок и N красных яблок. Выбираем по одному яблоку без возвращения, до тех пор, пока не достанем все красные. Чему равна вероятность, что после этого ни одного яблока в корзине не останется? Решение. Продолжим извлечение яблок до тех пор, пока корзина не опустеет, и занумеруем яблоки так, чтобы первые M номеров были у зеленых яблок. Тогда последовательности извлечений яблок из корзины можно закодировать наборами всех различных натуральных чисел от 1 до M + N, и нас интересует доля тех последовательностей, у которых на последнем месте стоит любое от M + 1 до M + N. Она равна доле тех последовательностей, у которых число из этого промежутка стоит на первом месте, т.е. вероятности того, что первый же извлеченный шар окажется красным. Но эта вероятность, очевидно, равна N/(M + N ). Ответ: N/(M + N ). Задача 2. Пусть X и Y — случайные величины на одном вероятностном пространстве, и Law(X + Y ) = Law(X)2 . а) Следует ли отсюда, что Y = 0 п.н.? б) Тот же вопрос, если известно, что Y ≥ 0. в) (III–V курсы) Тот же вопрос, если известно, что X и Y независимы. 1 2 Потому что из того, что E cos Z = 1, следует, что 1 − cos Z ≤ 0 п.н. Law(η1 , . . . , ηk ) — распределение случайного вектора η1 , . . . , ηk . 5 Решение. а) Неверно — рассмотреть, например, случайную величину X ∼ N (0, 1) и взять Y = −2X. б) Верно. Действительно, заметим, что Z := arctg(X + Y ) − arctg(X) ≥ 0 п.н. Поэтому равенство EZ = 0 равносильно тому, что Z = 0 п.н. Но это равенство выполнено, так как E arctg(X + Y ) = E arctg X. Следовательно, X + Y = X п.н., и Y = 0 п.н. в) Верно. Чтобы это доказать, введем характеристические функции ϕX и ϕY случайных величин X и Y. По условию задачи ϕX (t)ϕY (t) = Eeit(X+Y ) = EeitX = ϕX (t) при всех t ∈ R. Следовательно, если ϕ(t) 6= 0, то ϕY (t) = 1. В частности, в силу непрерывности любой характеристической функции в нуле последнее равенство справедливо в некоторой ε-окрестности нуля, где ε > 0. Значит, при любом рациональном t ∈ (0, ε) 0 = ReEeitY = E(1 − cos tY ), и так как случайная величина под знаком математического ожидания неотрицательна, то она равна нулю п.н., то есть P(Y ∈ Mt ) = 1, где Mt = {2πk/t : k ∈ Z}. Остается заметить, что ∪t∈(0,ε)∩Q Mt = {0}. Задача 3 (I–II курсы). Пусть A1 , A2 , A3 , A4 — такие события, что P(Aj ) = 1/2, j = 1, 2, 3, 4. Доказать: a) max1≤j,k≤4; j6=k P(Aj Ak ) ≥ 1/6; б) оценка в предыдущем пункте неулучшаема. Решение. а) Применим формулу включения–исключения: X P(Aj Ak ) 1 ≥ P(A1 ∪ A2 ∪ A3 ∪ A4 ) = P(A1 ) + P(A2 ) + P(A3 ) + P(A4 ) − 1≤j,k≤4; j6=k +P(A1 A2 A3 ) + P(A1 A2 A4 ) + P(A1 A3 A4 ) + P(A2 A3 A4 ) − P(A1 ) − P(A2 ) − P(A3 ) − P(A4 ) ≥ X X P(Aj Ak ), P(Aj Ak ) = 2 − ≥ P(A1 ) + P(A2 ) + P(A3 ) + P(A4 ) − 1≤j,k≤4; j6=k откуда X 1≤j,k≤4; j6=k P(Aj Ak ) ≥ 1, 1≤j,k≤4; j6=k так что хотя бы одно слагаемое в левой части не меньше, чем 1/6. б) Рассмотреть следующий пример: вероятностное пространство Ω = {ω1 , ω2 , ω3 , ω4 , ω5 , ω6 }, где все шесть элементарных исходов имеют одинаковую вероятность, и события A1 = {ω1 , ω2 , ω3 }, A2 = {ω1 , ω4 , ω5 }, A3 = {ω2 , ω4 , ω6 }, A4 = {ω3 , ω5 , ω6 }. Задача 3 (III-V курсы). Пусть последовательность случайных величин (ξn )n∈N не является сходящейся к нулю п.н., когда n → ∞. Доказать, что существуют ε > 0, возрастающая последовательность натуральных чисел (nk )k∈N и последовательность вложенных событий (Ak )k∈N (т.е. Ak ⊇ Ak+1 , k ∈ N), такие, что |ξnk (ω)| ≥ ε при ω ∈ Ak , k ∈ N, и P(Ak ) > 0, k ∈ N. Решение. Докажем вспомогательное утверждение: если µ > 0 и {E1 , E2 , . . . } — такие события, что P(Ei ) ≥ µ для любого i ∈ N. Тогда существует такая строго возрастающая последовательность (ik )k∈N , что à k ! \ P Eij > 0, k ∈ N. j=1 6 P В самом деле, пусть ее не существует. Тогда случафная величина Z := ∞ i=1 I{Ei } < ∞ п.н. Возьмем такое M > 0, что P(B) > 1 − µ/2, где событие B = {Z ≤ M }. Тогда M ≥ EZI{B} = E ∞ X I{B ∩ Ei }, i=1 но P(BEi ) = P(B) + P(Ei ) − P(B ∪ Ei ) ≥ 1 − µ/2 + µ − 1 ≥ µ/2 при каждом i ∈ N, так что указанная оценка не может выполняться. Теперь заметим, что по условию существует такое ε > 0, что P(lim sup |ξn | > ε) > 0. n→∞ Пусть эта вероятность равна δ, тогда бесконечное число событий вида {|ξn | > ε} имеем вероятность, большую δ/2, и остается применить к ним вспомогательное утверждение. Задача 4. а) Два случайных вектора (X, Y ) и (Z, U ) принимают конечное число значений и таковы, что Law(Y ) = Law(Z). Доказать, что на некотором вероятностном пространстве существует случайный вектор (ξ1 , ξ2 , ξ3 ), такой, что Law(ξ1 , ξ2 ) = Law(X, Y ) и Law(ξ2 , ξ3 ) = Law(Z, U ). б) Та же задача без предположения конечности числа значений. Решение. а) По условию существуют n ∈ N и такие множества L1 = {x1 , . . . , xn }, L2 = {y1 , . . . , yn }, L3 = {t1 , . . . , tn } ⊂ R, что что P(X ∈ L1 , Y ∈ L2 ) = P(Z ∈ L2 , U ∈ L3 ) = 1. Можно считать, что в каждом из множеств Li , i = 1, 2, 3, ровно n точек (если в каком-то из них точек меньше, то добавим необходимое их число, считая, что соответствующий случайный вектор принимает значения в этих добавленных точках с нулевой вероятностью). Меру µ на пространстве R3 с борелевской сигма-алгеброй определим по формуле µ((xi , yj , tk )) = P(X = xi |Y = yj )P(U = tk |Z = yj )P(Y = yj ), i, j, k = 1, . . . , n, и µ(R3 \ (L1 × L2 × L3 )) = 0. Условные вероятности мы понимаем в классическом смысле, т.е. P(A1 |A2 ) = P(A1 A2 )/P(A2 ), где A1 , A2 — события и считается, что 0/0 = 0. Мера µ вероятностная, поскольку все n3 точек вида (xi , yj , tk ) различны и n X µ((xi , yj , tk )) = n X P(X = xi |Y = yj ) i,j=1 i,j,k=1 n X P(T = tk |R = yj )P(Y = yj ) = 1. k=1 Рассмотрим вероятностное пространство, на котором задан случайный элемент (ξ1 , ξ2 , ξ3 ) с распределением µ. Для произвольных множеств B1 ∈ B(R), B2 ∈ B(R) обозначим J = {1 ≤ i, j, k ≤ n : (xi , yj , tk ) ∈ B1 × B2 × R}. Тогда по определению меры µ P(ξ1 ∈ B1 , ξ2 ∈ B2 ) = X P(X = xi |Y = yj )P(U = tk |Z = yj )P(Y = yj ) i,j,k∈J = 7 X 0 P(X = xi , Y = yj ) = P(X ∈ B1 , Y ∈ B2 ), P0 где сумма берется по таким i, j ∈ {1, . . . , n}, что (xi , yj ) ∈ B1 × B2 . Аналогично проверяется, что Law(ξ2 , ξ3 ) = Law(Z, U ). б) Пусть теперь случайные величины могут принимать бесконечное число значений. Построим последовательность случайных векторов (Xn , Yn )n∈N (на том же вероятностном пространстве, что и (X, Y )) так, чтобы при любом n ∈ N величины Xn и Yn принимали конечное число значений и (Xn , Yn ) → (X, Y ) с вероятностью единица, когда n → ∞. Так же строится последовательность (Zn , Un )n∈N дискретных случайных элементов (Zn , Un ) → (Z, U ) п.н., n → ∞. Их можно выбрать так, чтобы Law(Yn ) = Law(Zn ), n ∈ N. По уже доказанной части леммы при каждом n ∈ N на R3 существует такая вероятностная мера µn , что µn (A × R) = (Law(Xn , Yn ))(B1 ×B2 ) и µn (R × C) = (Law(Rn , Tn ))(B2 ×B3 ), где A = B1 × B2 и C = B2 × B3 . Возьмем ε > 0. По теореме Хелли существует такой отрезок [a, b] ⊂ R, что для каждого n ∈ N выполняются оценки P(Xn 6∈ [a, b]) < ε, P(Yn 6∈ [a, b]) < ε, P(Tn 6∈ [a, b]) < ε. Очевидно, µn (R3 \ [a, b]3 ) ≤ 3ε. Ввиду произвольности ε мы согласно многомерной теореме Хелли (теорема Прохорова для пространства Rk ) можем выбрать подпоследовательность мер (µv )v∈N , слабо сходящуюся к пределу µ. Построим на каком-нибудь подходящем вероятностном пространстве случайные векторы (ζ 1 , ζ 2 , ζ 3 ) с совместным распределением µ. Тогда для любой ограниченной непрерывной функции f : R2 → R Z Ef (Xv , Yv ) = f (x, y)µv (dx dy dt) → Ef (ζ 1 , ζ 2 ), v → ∞. R3 Таким образом, Law(ζ 1 , ζ 2 ) = Law(X, Y ). Аналогично проверяем равенство Law(ζ 2 , ζ 3 ) = Law(R, T ). 2 Задача 5. Пусть ξ ∼ N (0, 1). Доказать, что P(|ξ| ≥ x) ≤ e−x /2 для любого x ≥ 0. 2 Решение. Рассмотрим функцию F (x) = ex /2 P(|ξ| ≥ x), x ≥ 0. Ее производная есть √ µ ¶ Z ∞ 2 0 x2 /2 −t2 /2 F (x) = √ xe e dt − 1 = π x √ µ Z ∞ ¶ √ Z Z ∞ 2 x2 /2 2 x2 /2 ∞ 2 −t2 /2 −t2 /2 =√ e x e dt − (x − t)e−t /2 dt ≤ 0, te dt = √ e π π x x x так что F не возрастает. Осталось заметить, что F (0) = 1. Задача 6. 100 паровозов выехали из города по одноколейке, каждый с постоянной скоростью. Когда движение установилось, образовалось несколько караванов (групп, движущихся рядом, со скоростью лидера каравана). Найти среднее и дисперсию их числа. Функция распределения скорости непрерывна и строго возрастает на положительной полуоси, а скорости различных паровозов независимы. Решение. Прежде всего заметим, что с вероятностью единица все скорости различны (см. задачу 5-й олимпиады о сумме величин с непрерывным распределением). Каждому паровозу поставим в соответствие случайную величину ξj , равную 1, если он является лидером каравана 8 (возможно, состоящего только из самого этого паровоза), и равную 0 в противном случае, здесь j — порядковый номер паровоза. Тогда случайные величины {ξj , j = 1, . . . , 100} попарно независимы3 . Действительно, если k > j, то 1 P(ξj = 1) = P(j-й паровоз медленнее всех, кто идет перед ним) = , j а если j > k, то P(ξj = ξk = 1) = P(j-й медленнее всех, кто перед ним, k-й медленнее всех, кто перед ним), а это есть отношение количества таких перестановок чисел {1, . . . , j}, что на первом месте стоит 1, а на k-м с конца стоит число, которое меньше всех последующих, к числу всех перестановок. P100 Математическое ожидание числа караванов равно E j=1 ξi . Раз случайные величины ξj попарно независимы, то дисперсия их суммы равна сумме дисперсий. P P 100 −1 −1 Ответ: 100 j и − j −2 ). j=1 j=1 (j Задача 7. Двадцать человек сидят за круглым столом. Перед одним из них стоит тарелка. Он выбирает (равновероятно) одного из своих соседей и передает ему тарелку. Тот так же выбирает своего соседа, передает ему тарелку, и т.д. (на каждом шаге соседи выбираются независимо). Для каждого человека есть вероятность, что он окажется последним, до кого тарелка дойдет. Найти множество тех людей, для которых эта вероятность максимальна. Решение. Перенумеруем сидящих за столом по часовой стрелке, начиная с нуля (тот человек, у которого тарелка в начале), и пусть pk — вероятность, что последним тарелку получит k-й человек, k = 1, . . . , 19. Пусть m ∈ {2, 3. . . . , 18}. Тогда после первой передачи тарелки m-й человек окажется либо в том же положении, в котором до начала передачи был m − 1, либо в том, в котором был m+1-й, причем эти два варианта случаются равновероятно. Следовательно, pm = pm−1 + pm+1 , 2 т.е. числа p1 , p2 , . . . , p19 образуют арифметическую прогрессию. Очевидно, p1 = p19 , так что все элементы прогрессии равны. Ответ: все, кроме того, у кого тарелка. Задача 8. В целых точках прямой живут цивилизации. Каждый день между любыми двумя цивилизациями с вероятностью pn происходит межпланетный конфликт (pn зависит только от расстояния n между точками, где они живут, и все конфликты случаются независимо). Назовем участок прямой (интервал, соединяющий две соседних целых точки) безопасным, если по разные стороны от него нет пары цивилизаций в состоянии конфликта. Доказать, что с вероятностью единица: безопасных участков либо нет вообще, либо их бесконечное число. Решение. Обозначим Ik случайную величину, равную индикатору того, что участок номер k (соединяющий точки k и k + 1) безопасен. Эти случайные величины одинаково распределены. Имеем k ∞ k ∞ ∞ Y Y Y Y Y P(Ik = 1) = qm−j = qn = qss , j=−∞ m=k+1 j=−∞ n=k+1−j s=1 здесь и далее в этом решении qi := 1 − pi . Если это бесконечное произведение расходится к нулю, то Ik = 0 п.н. и безопасных участков нет. Допустим, что оно сходится к положительному 3 На самом деле даже взаимно независимы. 9 числу. Оценим ковариацию случайных величин Ik и Il (l > k): cov(Ik , Il ) = P(Ik = Il = 1) = k Y ∞ Y qm−j j=−∞ m=k+1 = ∞ Y s=1 qss l−k Y n=1 qnn ∞ Y qsl−k − ∞ Y qs2s = s=1 s=l−k+1 ∞ Y s=1 l Y ∞ Y qw−v − Ã∞ Y qsmin{s,l−k} s=1 qs2s = s=1 v=k+1 w=l+1 qss ∞ Y − ∞ Y ! qss . s=1 Итак, эта ковариация стремится к нулю, когда |k − l| → ∞. Возьмем произвольное ε > 0 и настолько большое N, что |cov(I0 , In )| < ε при n ≥ N. Тогда при n > N à n−1 ! N X X I1 + · · · + In −2 −2 D =n (n − k)cov(I0 , Ik ) ≤ n nDI1 + n−2 nε. n k=0 k=0 Значит, I1 + · · · + In → 0, n → ∞. n P Таким образом, ( nk=1 Ik )/n → EI1 > 0 по вероятности, когда n → ∞. Но это означает, что с вероятностью 1 в сумме бесконечное число положительных слагаемых. Задача 9. Пусть X1 , X2 , . . . , Xn — независимые случайные величины, имеющие распределение Коши со сдвигом a ∈ R и растяжением σ > 0 (т.е. EeitX1 = eiat−σ|t| , t ∈ R). Привести пример состоятельных по вероятности (при n → ∞) оценок параметров a и σ. Решение. Плотность случайных величин в задаче равна D p(x) = 1 . πσ(1 + (x − a)2 σ −2 ) Докажем известное вспомогательное утверждение: если независимые одинаково распределенные случайные величины X1 , X2 , . . . имеют функцию распределения F, причем F (x0 ) = 1/2 и функция F непрерывна и строго возрастает в некоторой окрестности точки x0 , то med(X1 , . . . , Xn ) → x0 по вероятности. Медиана med чисел x1 , . . . , xn определяется так: если x(1) , x(2) , . . . , x(n) — эти же числа, упорядоченные по возрастанию, то ( x(n+1)/2 , n нечетно, med(x1 , . . . , xn ) := (x(n/2) + x(1+n/2) )/2, n четно. В самом деле, пусть ε > 0 произвольно и F (x0 − ε) = 1/2 − δ < 1/2. Тогда P(med(X1 , . . . , Xn ) < x0 −ε) ≤ P( по крайней мере n/2−1 из величин X1 , . . . , Xn меньше x0 −ε) = à n ! 1 1X 1 =P I{Xj < x) − ε} > − →0 n j=1 2 2n по закону больших чисел, примененному к последовательности I{Xn < x0 − ε}. Аналогично проверяется, что P(med(X1 , . . . , Xn ) > x0 + ε) → 0, n → ∞. 10 Ra Теперь вспомним, что −∞ p(x)dx = 1/2. Поэтому в силу вспомогательного утверждения med(X1 , . . . , Xn ) → a по вероятности. Далее, рассмотрим случайные величины X1 − X2 , X3 − X4 , X5 − X6 , . . . . Они независимы и имеют распределение Коши со сдвигом 0 и растяжением 2σ. Их модуль имеет плотность 1 , x > 0, πσ(1 + x2 /(4σ 2 )) а функция распределения равна 1/2 в точке 2σ. Остается применить к ним вспомогательное утверждение. Ответ: med(X1 , . . . , Xn ) и med(X1 − X2 , . . . , X2n−1 − X2n )/2. СЕДЬМАЯ "КОЛМОГОРОВСКАЯ СТУДЕНЧЕСКАЯ ОЛИМПИАДА ПО ТЕОРИИ ВЕРОЯТНОСТЕЙ" Решения Задача 1. а) Пусть события A и B независимы. Верно ли, что P(AB|C) = P(A|C)P(B|C), где C — некоторое событие? б) Пусть случайные величины X и Y независимы и интегрируемы, а A — некоторая сигма-алгебра. Верно ли, что E(XY |A) = E(X|A)E(Y |A) п.н.? Решение. а) Неверно — взять, например, симметричную схему Бернулли и события A ="герб в первом испытании, B ="герб во втором испытании", C ="ровно 1 герб в первых двух испытаниях". б) Неверно — рассмотреть те же события, что в пункте а), и положить X = IA , Y = IB , A = {∅, Ω, C, Ω \ C}. Задача 2. Пусть случайные величины X, Y, Z независимы и строго положительны. Доказать, что тогда для любого x > 0 верна оценка P(X/Z < x, Y /Z < x) ≥ P(X/Z < x)P(Y /Z < x). Решение. Можно считать, что x = 1 (иначе умножим Z на x−1 ). Тогда нужно доказать, что P(X < Z, Y < Z) ≥ P(X < Z)P(Y < Z). Обозначим µ распределение вектора (X, Y ). Тогда по теореме Фубини P(X < Z, Y < Z) − P(X < Z)P(Y < Z) = P(Z > max{X, Y }) − P(Z > X)P(Z > Y ) = Z = (P(Z > max{x, y}) − P(Z > x)P(Z > y)) µ(dx dy) ≥ 0, R2 так как выражение в скобках всегда неотрицательно. Задача 3. Пете каждый день нужно принести домой ведро воды единичного объема. Зачерпнув из колодца полное ведро, он по дороге домой разливает долю воды, равномерно распределенную на отрезке [0, 1]. Сколько в среднем раз в день ему приходится ходить за водой? Решение. Пусть число походов за водой — случайная величина ξ. Тогда по известной формуле для целочисленных величин Eξ = ∞ X P(ξ ≥ k) = k=1 ∞ X P(ξ > k). k=0 Слагаемое с k = 0 равно, очевидно, 1, а k-е слагаемое (k > 0) равно вероятности того, что сумма k н.о.р. равномерных на [0,1] величин меньше 1. Эта вероятность равна объему симплекса {(x1 , . . . , xk ) : 0 ≤ xi , k X i=1 11 < 1} ⊂ Rk , который равен 1/(k!), так что сумма ряда равна e. Ответ: e. Задача 4. Пусть случайные величины X и Y интегрируемы и таковы, что EX + /EX − ≥ z и EY + /EY − ≥ z для некоторого z > 0. Верно ли, что тогда E(X + Y )+ /E(X + Y )− ≥ z? Здесь, как обычно, t+ = max{t, 0} и t− = (−t)+ . Решение. Если z < 1, то неверно. Рассмотреть, например, такие независимые случайные величины: ( z, с вероятностью 1/2, X= −1, с вероятностью1/2. ( −z, с вероятностью 1/2, Y = z 2 , с вероятностью1/2. Тогда z + z2 E(X + Y )+ = < z. E(X + Y )− 2 + z − z2 Можно было взять также Y = −zX, если не требовать независимости, то это еще проще. Если z ≥ 1, то верно. В самом деле, имеем Eξ + /Eξ − ≥ z ⇔ Eξ + ≥ zEξ − ⇔ Eξ ≥ (z − 1)Eξ − . (2) С помощью неравенства a− + b− ≥ (a + b)− получаем, что E(X + Y ) = EX + EY ≥ (z − 1)EX − + (z − 1)EY − ≥ (z − 1)E(X + Y )− , и остается применить (2). Ответ: Утверждение верно тогда и только тогда, когда z ≥ 1. Задача 5. Пусть (Xn )n∈Z — стационарная в широком смысле последовательность случайных величин (т.е. ковариация cov(Xj , Xk ) существует и зависит только P от числа j−k). Предположим, что cov(X0 , Xj ) ≤ 0 для каждого j ∈ Z \ {0}. Может ли ряд ∞ j=0 cov(X0 , Xj ) расходиться? Решение. Пусть Sn = X1 + · · · + Xn , n ∈ N. Тогда DSn = n X j,k=1 cov(Xj , Xk ) = n−1 X [n/2] (n − m)cov(X0 , Xm ) ≤ nDX0 + m=0 Xn cov(X0 , Xm ). 2 m=1 Левая часть неотрицательна (так как она не меньше дисперсии), и поделив ее на n, имеем [n/2] X cov(X0 , Xm ) + DX0 ≥ 0, m=1 P[n/2] |cov(X0 , Xm )| ≤ DX0 , ряд сходится. Следствие: если {Xt , t ∈ T } — такое бесконечное семейство случайных величин, что DXt = a и cov(Xt , Xs ) = b (t 6= s) при некоторых a и b, то b ≥ 0. Ответ: не может. т.е. m=1 Задача 6. Доказать, что существует квадратная матрица A порядка 11, у которой все элементы равны 1 либо −1, а det A > 4000. 12 Решение. Пусть элементы случайной матрицы A — н.о.р. величины ξij , принимающие значения ±1 с равными вероятностями, i, j = 1, . . . , 11. Тогда det A — симметричная случайная величина. Вычислим ее дисперсию: à !2 X E(det A)2 = E (−1)sgn(σ) ξ1,σ(1) ξ2,σ(2) . . . ξ11,σ(11) = σ∈S11 X X =E (−1)sgn(σ)+sgn(τ ) ξ1,σ(1) ξ2,σ(2) . . . ξ11,σ(11) ξ1,τ (1) ξ2,τ (2) . . . ξ11,τ (11) σ∈S11 τ ∈S11 (S11 — группа подстановок). Если подстановки σ и τ неодинаковы, то в произведении под знаком суммы найдется случайная величина, входящая в него в первой степени. Поэтому ожидание такого произведения равно нулю. Если же σ = τ, то произведение равно 1, а всего в двойной сумме таких произведений |S11 | = 11!. Значит, E(det A)2 = 11!, поэтому для некоторого элементарного исхода √ det A ≥ 11! > 4000. Задача 7. Пусть случайные величины X1 , X2 , . . . , X100 независимы и равномерно распределены на отрезке [−1, 1], а X(k) , k = 1, 2, . . . , 100 – значения этих величин, расположенные в порядке возрастания. Найти математическое ожидание случайной величины X(17) . Решение. Решим задачу для отрезка [0, 1], затем линейное преобразование. Способ 1: вычислить распределение X(17) , затем считать интеграл. Функция распределения равна 100 X P(ровно k величин меньше t) = F (t) = P(X(17) < t) = k=17 ¶ 100 µ X 100 k t (1 − t)100−k , = k k=17 и интегрируя по частям мы имеем Z 1 Z F (t)dt = 1 − tF (t)dt = F (1) − EX(17) = 0 0 =1− 1 0 ¶ 100 µ X 100 k=17 k ¶Z 100 µ X 100 k=17 B(k + 1, 101 − k) = 1 − k 1 tk (1 − t)100−k = 0 ¶ 100 µ X 100 Γ(k + 1)Γ(101 − k) k=17 k Γ(102) = 100 X 100!k!(100 − k)! 84 17 =1− =1− = . k!(100 − k)!101! 101 101 k=17 Способ 2: Пусть Z0 , Z1 , . . . , Z100 — независимые случайные точки, равномерно распределенные на окружности длины 1, а Yk — расстояние по часовой стрелке от Z0 до k-й по удаленности точки, k = 1, . . . , 100. Тогда (Y1 , . . . , Y100 ) распределен как (X(1) , . . . , X(100) ) (чтобы это проверить, надо записать характеристические функции этих векторов и заметить, что распределение первого из них не зависит от Z0 ). Поэтому EX(17) = EY17 . Но поскольку все дуги между соседними точками на окружности распределены одинаково, то их ожидания — по 1/101, и ответ 17/101. Ответ: −67/101. 13 itX = √Задача 8. а) Случайная величина X, имеющая характеристическую функцию Ee 1/ 1 + t2 , распределена как произведение двух независимых случайных величин, обладающих плотностями. Найти эти плотности; б) Тот же вопрос, но для характеристической функции 1/(1 + |t|). Решение. а) µ ¶ Z Z √ 1 1 −(1+t2 )x2 /2 −x2 /2 −t2 x2 /2 2 1/ 1 + t = √ e dx = √ e e dx = 2π R 2π R Z ³ 1 Z ´ 1 2 2 −x2 /2 √ =√ e eizt−z /(2x ) dz dx = ||u = z/x|| = 2π R 2πx2 R Z Z Z ³ 1 ´ 1 1 2 2 −x2 /2 iutx−u2 /2 √ e e dz dx = eiutx−x /−u /2 dxdu. =√ 2π R2 2π R 2π R б) аналогично Z Z ∞ 1/(1 + |t|) = e −x−x|t| Z ∞ dx = −x −x|t| e e 0 0 Z ∞ = dx = e 0 Z −x e 0 Z ∞ R −x R eizt dz dx = xπ(1 + z 2 /x2 ) eiutx dudx, π(1 + u2 ) Ответ: а) две стандартные гауссовские; б) стандартное распределение Коши и стандартное показательное распределение. Задача 9. Пусть матрицы A = (aij )ni,j=1 и B = (bij )ni,j=1 симметричны и неотрицательно определены. Доказать, что матрица C = (cij )ni,j=1 , где cij = aij bij , i, j ∈ {1, . . . , n}, обладает теми же свойствами. Решение. Рассмотрим независимые случайные векторы X ∼ N (0, A) и Y ∼ N (0, B). Тогда ковариационная матрица вектора Z = (X1 Y1 , X2 Y2 , . . . , Xn Yn ) равна C, откуда сразу следует утверждение. Задача 10. Делается одно наблюдение случайной величины ξ ∼ N (µ, σ 2 ), оба параметра которой неизвестны. Указать для параметра σ 2 какой-нибудь доверительный интервал, уровень значимости которого не превышает числа 1/100. Решение. Будем строить интервал в виде [0, T (ξ)), где T (ξ) — некоторая статистика. По определению это будет доверительный интервал с уровнем ≤ 1/100, если ∀ µ ∈ R ∀ σ > 0 Pµ,σ2 (σ 2 ≥ T (ξ)) ≤ 1/100. √ Заметим, что плотность распределения N (µ, σ 2 ) не превосходит 1/σ 2π. Поэтому P(|ξ| ≤ a) ≤ a/σ при любом a > 0. Следовательно, t ≤ P(|ξ|/σ ≤ t) = P(ξ 2 ≤ t2 σ 2 ) = P(σ 2 ≥ ξ 2 /t2 ). Подставляя t = 1/100, видим, что подходит статистика T (ξ) = 10000ξ 2 . Ответ: (−1, 10000ξ 2 ). 14