В настоящее время chaindata
размер составляет более 10,02 ГБ.
eth
/ geth
) в этом случае?В работах идет обрезка дерева состояний, которая позволит постоянно удалять старые данные, которые больше не нужны. Рука об руку с сокращением идет быстрая синхронизация, которая синхронизируется с сетью таким образом, что не генерирует весь промежуточный мусор, а загружает самое последнее состояние с самого начала.
Обрезка должна быть включена в Geth 1.5. Быстрая синхронизация поддерживается уже несколько месяцев ( --fast
), поэтому вы всегда можете удалить свои старые данные и выполнить повторную синхронизацию с цепочкой с нуля, чтобы уменьшить ее размер. На данный момент размер свежей быстрой синхронизации должен составлять около 1,3 ГБ. Моя машина + пропускная способность могут быстро синхронизироваться примерно за 25-30 минут с текущим алгоритмом, и в версии 1.5 появилось улучшение, которое сделало это за 11 минут :)
Обновлять
Какой самый быстрый клиент с новейшими функциями меняется туда-сюда. Теперь Mist/Geth работает быстрее всего с новым легким клиентом ( --light
), даже быстрее, чем--fast
--fast
это возможно, только если БД пуста (" blockchain not empty, fast sync disabled
"). Есть ли какое-либо решение для уменьшения БД (не полностью удалить и повторно синхронизировать)? Может быть, удобно выборочно удалить самые старые части БД? (Но это не красиво :) )geth 1.6.1-unstable-d2fda73a
я получаю папку chaindata размером 16 ГБ, это нормально?Хотя ответ Петера Силаджи ни в коей мере не является неправильным, есть и другая возможность. Если вы повторно загрузите блокчейн с помощью Parity вместо geth, размер блокчейна уменьшится с ваших 10 ГБ до 1,5 ГБ!
Алекс Коз.