Публикации по теме 'postgres'
Повышение производительности на 15% за счет удаления неиспользуемых индексов базы данных
Недавний анализ индексов в нашей производственной базе данных позволил нам идентифицировать и удалять индексы с нулевым сканированием, обеспечивая прирост производительности в задачах записи до 15%.
Индексы базы данных обычно используются для ускорения запросов чтения, однако их использование также требует затрат;
Индексы занимают место, часто это дорого обходится в базе данных. Индексы замедляют модификацию данных. При использовании индексов вставки, обновления и удаления..
Создание приложения SaaS с помощью веб-платформы Django. Часть 1/2: Принцип
Программное обеспечение, которое запускается непосредственно в веб-браузере, и пользователи должны платить за него по-разному, например, за час, даже за пользователя и т. Д.… Называется приложением «Программное обеспечение как услуга» (SaaS). С тех пор эта модель очень широко используется стартапами для продажи своих услуг. В этой первой статье мы узнаем об основных принципах этого.
Хорошо, приступим, принцип.
На самом деле, исходя из моего небольшого опыта, когда я говорю о дизайне..
Heroku: как развернуть приложение Django с Postgres за 5 минут!
Если вы еще не установили статический корень в настройках Django, вы получите ошибку DISABLECOLLECTSTATIC . Django не обслуживает статические файлы на сервере приложения самостоятельно, поэтому мы должны определить место, где Heroku может хранить и управлять всеми статическими файлами. Просто добавьте STATIC_ROOT в свой файл settings.py. После внесения всех необходимых изменений сделайте фиксацию и попробуйте нажать
git push heroku master
опять таки.
Он развернут!
Поздравляю...
Как экспортировать таблицу Postgresql как CSV с помощью потоков Node.js
Привет всем, сегодня в главе «Как сделать счастливым пользователя бизнес-аналитики» мы сделаем возможным скачивать «большие данные», не подвергая опасности наш собственный сервер.
Для этого мы будем использовать нашу любимую базу данных PostgreSQL и nodejs с помощью двух пакетов, pg и pg-copy-streams .
Основная проблема загрузки или обработки всех этих данных - их размер. Поэтому, чтобы избежать одновременной загрузки всей таблицы в память, поскольку она может быть довольно большой,..
Удивительно низкая производительность UPSERT: в поисках ясности
В этой статье описывается поиск ясности, к которому я пришел в последние дни. Я не думаю, что результат или извлеченные уроки в какой-то мере новы или действительно очень удивительны, но, поскольку мне потребовалось несколько дней размышлений и экспериментов, чтобы разобраться в вещах, я надеюсь, что эта статья может помочь другим. или хотя бы развлечь их.
Введение: вариант использования
Все началось с того, что кто-то пожаловался мне, что вставка с перезаписью (также известная как..
Дух времени.6
Быть отчетом о некоторых вещах, которые захватили мой интерес на этой неделе.
На этой неделе у меня в основном был роман с PipelineDB . Потоковая передача данных, непрерывный запрос, агрегирование и постепенное сохранение результатов в таблицах. Это потрясающе.
Определяющие моменты в истории базы данных
Говоря о потоковой передаче и базах данных. Отличный взгляд на недавнюю историю баз данных
На первый взгляд это не очевидно, но эта архитектура «река данных, из которой может..
15 - Создайте свою первую модель и миграцию
Узнайте, как создать свою первую модель базы данных с помощью Sequelize ORM и миграции
Ваша первая миграция
Имя файла: 201901041917-CreateLeadTable.js
'use strict';
module . exports = {
up: (queryInterface, Sequelize) => {
return queryInterface.createTable('Leads', {
id : {
allowNull: false,
primaryKey: true,
type: Sequelize.UUID,
defaultValue : Sequelize .UUIDV4,
},
createdAt : {..