http://www.cs.cornell.edu/courses/cs4850/2010sp/Scribe%20Notes/Lecture12.pdf
https://www.ceid.upatras.gr/webpages/courses/pithmeth/slides/lecture5.pdf
این در الگوریتم تصادفی بود، در مبانی علوم داده هم هست. تفاوتش همان طور که در اسلایدها هم هست این است که در الگوریتم تصادفی ما الگوریتممان انتخاب تصادفی میکند (یک الگوریتم به طور تصادفی از یک مجموعه از الگوریتمها انتخاب میشود) و در تحلیل حالت میانگین (یا فرآیند تصادفی) ورودی تصادفی است و الگوریتم قطعی.
اصل تصمیمگیری با تأخیر میگوید که تا وقتی به نتیجهی یک انتخاب تصادفی نیازی نداریم، نگاهش نکنیم. با استفاده از این روش یک احتمال خیلی سخت را به سادگی با تقارن مسئله حل میکند و به دست میآورد.
فرق آزمایش برنولی و پوآسون در این است که برنولی حالت خاصی از پوآسون است که در آن احتمال موفقیت ثابت باقی میماند ولی در پوآسون در هر مرحله میتواند تغییر کند.
گراف تصادفی با توزیع درجات غیریکنواخت
نظریه صف (قسمتی که مربوط به صدقپذیری تصادفی بود)
فرایند منشعب شونده (branching process)
-----
یک مبحث هم خودم میخواستم بخوانم:
Differential Equations Method (روش معادلات دیفرانسیل)
اثبات Johnson-Lindenstraus lemma