JavaScriptで大量データの利用について

お久しぶりです、社員Eです。

最近よくJavaScriptで大量データの利用について調査することが多かったので、そのことについて簡単に紹介したいと思います。

大量データを扱うことで処理の一部が遅くなったりすることがあり、遅くなった原因を調査したところ、「map」や「filter」等の大量データの中から特定データを検索等する処理で、時間がかかっていることがわかりました。

「map」や「filter」等は、対象のデータ数が少ない場合は、コード数も少なくて済み使いやすいのですが、対象のデータ数が増加すると処理に時間がかかってしまうみたいです。

解決策としては、基本の「for」を利用して、対象データを繰り返して対応したい処理を実施するほうが、処理にかかる時間が短くなります。
※細かい比較などはGoogleで調べるとすぐに出てきます

今回調査したことで、処理に受け渡されるデータ量がどの程度の量になるかわからない場合は、「for」で統一するようにしたほうがいいというのがわかりました。

簡単ですが、以上となります。