This is usually remedied by doing only incremental processing, i.e., processing only the data which have changed (usually new data) instead of reprocessing the entire data set. وعادة ما يتم علاج ذلك عن طريق القيام معالجة فقط تدريجي، أي معالجة البيانات فقط التي تم تغييرها (عادة البيانات الجديدة) بدلا من إعادة معالجة مجموعة البيانات بأكملها.
Big data is a collection of data sets that are so large and complex that they become awkward to work with using traditional database management tools. البيانات الضخمة هي مجموعة من مجموعة البيانات الضخمة جداً والمعقدة لدرجة أنه يُصبح من الصعب معالجتها باستخدام أداة واحدة فقط من أدوات إدارة قواعد البيانات أو باستخدام تطبيقات معالجة البيانات التقليدية.
In statistics, data sets usually come from actual observations obtained by sampling a statistical population, and each row corresponds to the observations on one element of that population. في الإحصاء غالباً ما تأتي مجاميع البيانات من ملاحظات فعلية يتم الحصول عليها من نمذجة الجمهرة أو التعداد السكاني، ويرمز كل صف في مجموعة البيانات إلى عنصر واحد من التعداد السكاني.
The data initially were trivial anecdotal but gradually a body of data started accumulating to the extent that we now know that the synthetic chemicals which have permeated our workplace our consumer products our air our water produced cancer and also birth defects البيانات الأولية كانت كالحكايات التافهة لكن تدريجيا مجموعة البيانات بدأت تتراكم إلى حد أننا عرفنا الآن أن المواد الكيميائية الاصطناعية
The Guardian reported that "the Gitmo files are the fifth (and very nearly the final) cache of data that disaffected U.S. soldier Bradley Manning is alleged to have turned over to the WikiLeaks website more than a year ago." وذكرت الجارديان أن ملفات "غوانتانامو هي مجموعة البيانات الخامسة (والأخيرة تقريبًا) التي أضرت بالجندي مانينغ، والتي تم تحويلها إلى موقع ويكيليكس قبل عام من الآن."
In Fisher's approach to testing, the central idea is to assess whether the observed dataset could have resulted from chance if the null hypothesis were assumed to hold, notionally without preconceptions about what other model might hold. في نهج فيشر للتجارب، والفكرة المركزية هي تقييم ما إذا كانت مجموعة البيانات الملاحظة يمكن أن تكون قد أسفرت عن فرصة لو أن يفترض أن تكون فرضية العدم، نظريا، بدون أفكار مسبقة بشأن ما يمكن أن يحمله النموذج الآخر.
One such innovation is the introduction of grid-like architecture in machine analysis, allowing increases in the speed of massively parallel processing by distributing the workload to many computers all with equal access to the complete data set. ويتمثل أحد هذه الابتكارات في إدخال بنية شبيهة بالشبكة في تحليل الماكينات ، مما يسمح بزيادة سرعة المعالجة المتوازية على نطاق واسع من خلال توزيع عبء العمل على العديد من الحواسيب ، كل ذلك مع وصول متساوٍ إلى مجموعة البيانات الكاملة.
For example, if a system is showing a trend of slowing transaction processing (which might be due to growing data set sizes, or increasing numbers of concurrent users, or other factors) then at some point the system will no longer meet the criteria specified within the service level agreements. فعلى سبيل المثال، إذا كان النظام يظهر اتجاه إلى تباطؤ معالجة المعاملات (والذي قد يكون راجعا إلى تزايد أحجام مجموعة البيانات، أو أعداد متزايدة من المستخدمين المتزامنين، أو عوامل أخرى)، اذن وفي مرحلة ما سيكون النظام غير قادر على الإيفاء بالمعايير المحددة داخل اتفاقات مستوى الخدمة.