Video: 15 Fad Diets: Definition & Dangers You Must Know 2024
Bilim adamları, yıllardan beri etkileyici miktarda veriyle mücadele etmeye başlamış, Büyük veri. Bu noktada, İnternet, bugün yaptığı veri için geniş miktarda veri üretmedi. Büyük verilerin sadece yazılım ve donanım satıcıları tarafından oluşturulmuş bir fade olmadığını değil, aşağıdaki alanların çoğunda bir temel oluşturduğunu hatırlamak yararlı olacaktır:
- Astronomi: Bir misyon üzerinde uzay aracından alınan verileri düşünün Voyager veya Galileo) ve astronomik cisimlerden radyo dalgaları almak için kullanılan özel antenler olan radyo teleskoplarından alınan tüm veriler. Bunun ortak bir örneği, uzaydan gelen radyo frekanslarını gözlemleyerek dünya dışı sinyaller arayan Uzayüstü İstihbaratını Araştır (SETI) projesidir. Alınan veri miktarı ve gökyüzünün bir bölümünü bir saat boyunca analiz etmek için kullanılan bilgisayar gücü etkileyicidir. Eğer uzaylılar oradaysa onları ayırmak çok zor.
- ile iletişim kurun; insanlar bir sinyali gerçekten yakalarlarsa neler olabileceğini araştırıyor. Meteoroloji:
- Yakın zaman için hava tahminleri yapmaya çalışın, örneğin sıcaklık, atmosferik basınç, nem, rüzgar ve yağış gibi farklı zamanlarda, yerlerde ve rakımlarda. Hava durumu tahmini gerçekten büyük verilerdeki ilk sorunlardan birisidir ve alakalı bir konudur. İklim verileri sağlayan bir şirket olan Weather Analytics'e göre, Dünya Gayrı Safi Yurtiçi Hasıla'nın (GSYİH) yüzde 33'ünden fazlası hava koşullarının tarım, balıkçılık, turizm ve ulaşım alanlarını nasıl etkilediğine göre sadece bir kaçını belirtiyor. 1950'lere dek uzanan zamanın ilk süper bilgisayarları, olabildiğince çok veri sıkıştırmak için kullanıldı, çünkü meteorolojide, ne kadar çok veri olursa, tahmin de o kadar doğru olurdu. Hava tahminleri ve iklim değişikliği eğitimi için Kore Meteoroloji Birliği ile ilgili bu hikayede okuyabileceğiniz gibi, herkesin daha fazla depolama ve işleme kapasitesi toplamasının nedeni budur. Fizik:
- Maddenin, alanın ve zamanın yapısını belirlemek amacıyla parçacık hızlandırıcıları kullanan deneyler tarafından üretilen büyük miktarda veriyi düşünün. Örneğin, bugüne kadar üretilen en büyük parçacık hızlandırıcısı olan Büyük Hadron Çarpıştırıcısı, parçacık çarpışmalarının bir sonucu olarak her yıl 15PB (petabayt) veri üretir. Genomik:
- Molekülün yapısını oluşturan dört bazdan (adenin, guanin, sitozin ve timin) oluşan birçok kombinasyonun kesin sırasını belirlemek demek olan tek bir DNA zincirinin sıralanması, molekülün yapısını oluşturur veri.Örneğin, tek bir kromozom, hücredeki DNA'yı içeren bir yapı, 50MB ila 300MB arasında bir miktara ihtiyaç duyabilir. Bir insan 46 kromozoma sahiptir ve sadece bir kişi için DNA verileri tüm bir DVD'yi tüketir. Çok sayıda kişinin DNA verilerini belgelemek ya da yeryüzündeki diğer canlıları sıralamak için gereken büyük depolamayı hayal edin. Oşinografi:
- Su sıcaklıklarını, akıntıları ve hidrofonları kullanarak okyanuslara yerleştirilen birçok sensör sayesinde, bilimsel amaçlı akustik izleme (balıklar, balinalar ve planktonlar hakkında keşfedilmesi) ve askeri savunma amaçlı sesler bile (diğer ülkelerden sinsi denizaltı bulma). Daha eski ve karmaşık hale gelen bu gözetim problemine dikkatle bakabilirsiniz. Uydular:
- Bu eski veri eğilimlerini destekleyerek yeni veri miktarı üretilmekte ya da Internet tarafından taşınmakta, yeni sorunlar yaratılmakta ve veri depolama ve işleme algoritmaları açısından çözümler aranmaktadır:
- As Ulusal Güvenlik Ajansı (NSA) tarafından bildirilen internet üzerinden her gün dünyanın dört bir yanından akan bilgi miktarı 2013 yılında 826PB, telekomünikasyon ve telefon görüşmelerinin yüzde 1,6'sı. Ulusal güvenliğin sağlanması için NSA, tüm e-postaların ve telefon görüşmelerinin en az% 0,25'inin içeriğini doğrulamalıdır (bir terörist arsa gibi bir şey işaretleyebilecek anahtar kelimeler aramaktadır). Hala yılda 25 pb tutarında olup, her yıl saklanan ve analiz edilen 37,500 CD-ROM'a eşittir (ve bu da artmaktadır). Hikayenin tamamını okuyabilirsiniz.