![Загрузите CSV-файл размером 300 МБ или более в хранилище GCP.](https://rvso.com/image/756230/%D0%97%D0%B0%D0%B3%D1%80%D1%83%D0%B7%D0%B8%D1%82%D0%B5%20CSV-%D1%84%D0%B0%D0%B9%D0%BB%20%D1%80%D0%B0%D0%B7%D0%BC%D0%B5%D1%80%D0%BE%D0%BC%20300%20%D0%9C%D0%91%20%D0%B8%D0%BB%D0%B8%20%D0%B1%D0%BE%D0%BB%D0%B5%D0%B5%20%D0%B2%20%D1%85%D1%80%D0%B0%D0%BD%D0%B8%D0%BB%D0%B8%D1%89%D0%B5%20GCP..png)
Я пытаюсь загрузить CSV-файл размером 3 ГБ в Google Cloud Storage Bucket, но каждый раз при попытке он обрабатывает только 295,5 МБ и загружает 295,5 МБ. Почему так? Я установил ограничение на размер бакета в 15 ГБ.
Я пытаюсь загрузить CSV-файл размером 3 ГБ в Google Cloud Storage Bucket, но каждый раз при попытке он обрабатывает только 295,5 МБ и загружает 295,5 МБ. Почему так? Я установил ограничение на размер бакета в 15 ГБ.