お久しぶりです、社員Eです。
最近よくJavaScriptで大量データの利用について調査することが多かったので、そのことについて簡単に紹介したいと思います。
大量データを扱うことで処理の一部が遅くなったりすることがあり、遅くなった原因を調査したところ、「map」や「filter」等の大量データの中から特定データを検索等する処理で、時間がかかっていることがわかりました。
「map」や「filter」等は、対象のデータ数が少ない場合は、コード数も少なくて済み使いやすいのですが、対象のデータ数が増加すると処理に時間がかかってしまうみたいです。
解決策としては、基本の「for」を利用して、対象データを繰り返して対応したい処理を実施するほうが、処理にかかる時間が短くなります。
※細かい比較などはGoogleで調べるとすぐに出てきます
今回調査したことで、処理に受け渡されるデータ量がどの程度の量になるかわからない場合は、「for」で統一するようにしたほうがいいというのがわかりました。
簡単ですが、以上となります。