Публикации по теме 'postgres'


Повышение производительности на 15% за счет удаления неиспользуемых индексов базы данных
Недавний анализ индексов в нашей производственной базе данных позволил нам идентифицировать и удалять индексы с нулевым сканированием, обеспечивая прирост производительности в задачах записи до 15%. Индексы базы данных обычно используются для ускорения запросов чтения, однако их использование также требует затрат; Индексы занимают место, часто это дорого обходится в базе данных. Индексы замедляют модификацию данных. При использовании индексов вставки, обновления и удаления..

Создание приложения SaaS с помощью веб-платформы Django. Часть 1/2: Принцип
Программное обеспечение, которое запускается непосредственно в веб-браузере, и пользователи должны платить за него по-разному, например, за час, даже за пользователя и т. Д.… Называется приложением «Программное обеспечение как услуга» (SaaS). С тех пор эта модель очень широко используется стартапами для продажи своих услуг. В этой первой статье мы узнаем об основных принципах этого. Хорошо, приступим, принцип. На самом деле, исходя из моего небольшого опыта, когда я говорю о дизайне..

Heroku: как развернуть приложение Django с Postgres за 5 минут!
Если вы еще не установили статический корень в настройках Django, вы получите ошибку DISABLECOLLECTSTATIC . Django не обслуживает статические файлы на сервере приложения самостоятельно, поэтому мы должны определить место, где Heroku может хранить и управлять всеми статическими файлами. Просто добавьте STATIC_ROOT в свой файл settings.py. После внесения всех необходимых изменений сделайте фиксацию и попробуйте нажать git push heroku master опять таки. Он развернут! Поздравляю...

Как экспортировать таблицу Postgresql как CSV с помощью потоков Node.js
Привет всем, сегодня в главе «Как сделать счастливым пользователя бизнес-аналитики» мы сделаем возможным скачивать «большие данные», не подвергая опасности наш собственный сервер. Для этого мы будем использовать нашу любимую базу данных PostgreSQL и nodejs с помощью двух пакетов, pg и pg-copy-streams . Основная проблема загрузки или обработки всех этих данных - их размер. Поэтому, чтобы избежать одновременной загрузки всей таблицы в память, поскольку она может быть довольно большой,..

Удивительно низкая производительность UPSERT: в поисках ясности
В этой статье описывается поиск ясности, к которому я пришел в последние дни. Я не думаю, что результат или извлеченные уроки в какой-то мере новы или действительно очень удивительны, но, поскольку мне потребовалось несколько дней размышлений и экспериментов, чтобы разобраться в вещах, я надеюсь, что эта статья может помочь другим. или хотя бы развлечь их. Введение: вариант использования Все началось с того, что кто-то пожаловался мне, что вставка с перезаписью (также известная как..

Дух времени.6
Быть отчетом о некоторых вещах, которые захватили мой интерес на этой неделе. На этой неделе у меня в основном был роман с PipelineDB . Потоковая передача данных, непрерывный запрос, агрегирование и постепенное сохранение результатов в таблицах. Это потрясающе. Определяющие моменты в истории базы данных Говоря о потоковой передаче и базах данных. Отличный взгляд на недавнюю историю баз данных На первый взгляд это не очевидно, но эта архитектура «река данных, из которой может..

15 - Создайте свою первую модель и миграцию
Узнайте, как создать свою первую модель базы данных с помощью Sequelize ORM и миграции Ваша первая миграция Имя файла: 201901041917-CreateLeadTable.js 'use strict'; module . exports = { up: (queryInterface, Sequelize) => { return queryInterface.createTable('Leads', { id : { allowNull: false, primaryKey: true, type: Sequelize.UUID, defaultValue : Sequelize .UUIDV4, }, createdAt : {..