Question Sélectionnez la première rangée dans chaque groupe GROUP BY?


Comme le titre le suggère, je voudrais sélectionner la première rangée de chaque série de rangées GROUP BY.

Plus précisément, si j'ai un purchases table qui ressemble à ceci:

SELECT * FROM purchases;

Ma sortie:

id | client | total
--- + ---------- + ------
 1 | Joe | 5
 2 | Sally | 3
 3 | Joe | 2
 4 | Sally | 1

Je voudrais demander pour le id du plus gros achat (total) faite par chaque customer. Quelque chose comme ça:

SELECT FIRST(id), customer, FIRST(total)
FROM  purchases
GROUP BY customer
ORDER BY total DESC;

Production attendue:

PREMIER (id) | client | PREMIER (total)
---------- + ---------- + -------------
        1 | Joe | 5
        2 | Sally | 3

896
2017-09-27 01:23


origine


Réponses:


Sur Oracle 9.2+ (non 8i + comme indiqué à l'origine), SQL Server 2005+, PostgreSQL 8.4+, DB2, Firebird 3.0+, Teradata, Sybase, Vertica:

WITH summary AS (
    SELECT p.id, 
           p.customer, 
           p.total, 
           ROW_NUMBER() OVER(PARTITION BY p.customer 
                                 ORDER BY p.total DESC) AS rk
      FROM PURCHASES p)
SELECT s.*
  FROM summary s
 WHERE s.rk = 1

Pris en charge par n'importe quelle base de données:

Mais vous devez ajouter une logique pour rompre les liens:

  SELECT MIN(x.id),  -- change to MAX if you want the highest
         x.customer, 
         x.total
    FROM PURCHASES x
    JOIN (SELECT p.customer,
                 MAX(total) AS max_total
            FROM PURCHASES p
        GROUP BY p.customer) y ON y.customer = x.customer
                              AND y.max_total = x.total
GROUP BY x.customer, x.total

800
2017-09-27 01:27



Dans PostgreSQL c'est typiquement plus simple et plus rapide (plus d'optimisation des performances ci-dessous):

SELECT DISTINCT ON (customer)
       id, customer, total
FROM   purchases
ORDER  BY customer, total DESC, id;

Ou plus court (si pas aussi clair) avec des nombres ordinaux de colonnes de sortie:

SELECT DISTINCT ON (2)
       id, customer, total
FROM   purchases
ORDER  BY 2, 3 DESC, 1;

Si total peut être NULL (ne blessera pas de toute façon, mais vous voudrez faire correspondre les index existants):

...
ORDER  BY customer, total DESC NULLS LAST, id;

Points majeurs

  • DISTINCT ON est une extension PostgreSQL de la norme (où seulement DISTINCT dans l'ensemble SELECT la liste est définie).

  • Liste un nombre quelconque d'expressions dans le DISTINCT ON clause, la valeur de ligne combinée définit des doublons. Le manuel:

    De toute évidence, deux rangées sont considérées distinctes si elles diffèrent au moins   une valeur de colonne. Les valeurs nulles sont considérées comme égales dans cette comparaison.

    Emphase audacieuse mienne

  • DISTINCT ON peut être combiné avec ORDER BY. Les expressions principales doivent correspondre à DISTINCT ON expressions dans le même ordre. Vous pouvez ajouter Additionnel expressions à ORDER BY pour choisir une rangée particulière de chaque groupe de pairs. J'ai ajouté id en dernier lieu pour rompre les liens:

    "Choisissez la rangée avec le plus petit id de chaque groupe partageant le plus haut total"

    Si total peut être NULL, vous le plus probable voulez la ligne avec la plus grande valeur non nulle. Ajouter NULLS LAST comme démontré. Détails:

  • le SELECT liste n'est pas contraint par des expressions dans DISTINCT ON ou ORDER BY de quelque manière que. (Pas nécessaire dans le cas simple ci-dessus):

    • Toi ne pas avoir à inclure l'une des expressions dans DISTINCT ON ou ORDER BY.

    • Toi pouvez inclure toute autre expression dans le SELECT liste. Cela permet de remplacer des requêtes beaucoup plus complexes par des sous-requêtes et des fonctions d'agrégat / de fenêtre.

  • J'ai testé avec Postgres versions 8.3 - 10. Mais la fonctionnalité a été là au moins depuis la version 7.1, donc fondamentalement toujours.

Indice

le parfait index pour la requête ci-dessus serait un index multi-colonnes couvrant les trois colonnes dans la séquence correspondante et avec l'ordre de tri correspondant:

CREATE INDEX purchases_3c_idx ON purchases (customer, total DESC, id);

Peut être trop spécialisé pour les applications du monde réel. Mais utilisez-le si les performances de lecture sont cruciales. Si tu as DESC NULLS LAST Dans la requête, utilisez la même chose dans l'index afin que Postgres connaisse l'ordre de tri.

Efficacité / optimisation des performances

Vous devez peser les coûts et les avantages avant de créer un index personnalisé pour chaque requête. Le potentiel de l'indice ci-dessus dépend largement de la distribution de données.

L'index est utilisé car il fournit des données pré-triées, et dans Postgres 9.2 ou plus tard, la requête peut également bénéficier d'un index seulement scan si l'index est plus petit que la table sous-jacente. L'index doit être scanné dans son intégralité, cependant.

Référence

J'ai eu un benchmark simple qui est obsolète maintenant. Je l'ai remplacé par un point de référence détaillé dans cette réponse distincte.


809
2017-10-03 02:21



Référence

Tester les candidats les plus intéressants avec Postgres 9.4 et 9.5 avec une table réaliste à mi-chemin de 200k lignes dans purchases et 10k distincts customer_id (moy. 20 lignes par client).

Pour Postgres 9.5 j'ai effectué un 2ème test avec 86446 clients distincts. Voir ci-dessous (moy. 2,3 lignes par client).

Installer

Table principale

CREATE TABLE purchases (
  id          serial
, customer_id int  -- REFERENCES customer
, total       int  -- could be amount of money in Cent
, some_column text -- to make the row bigger, more realistic
);

J'utilise un serial (Contrainte PK ajoutée ci-dessous) et un nombre entier customer_id puisque c'est une configuration plus typique. Aussi ajouté some_column pour compenser pour généralement plus de colonnes.

Données factices, PK, index - une table typique a également quelques tuples mortes:

INSERT INTO purchases (customer_id, total, some_column)    -- insert 200k rows
SELECT (random() * 10000)::int             AS customer_id  -- 10k customers
     , (random() * random() * 100000)::int AS total     
     , 'note: ' || repeat('x', (random()^2 * random() * random() * 500)::int)
FROM   generate_series(1,200000) g;

ALTER TABLE purchases ADD CONSTRAINT purchases_id_pkey PRIMARY KEY (id);

DELETE FROM purchases WHERE random() > 0.9; -- some dead rows

INSERT INTO purchases (customer_id, total, some_column)
SELECT (random() * 10000)::int             AS customer_id  -- 10k customers
     , (random() * random() * 100000)::int AS total     
     , 'note: ' || repeat('x', (random()^2 * random() * random() * 500)::int)
FROM   generate_series(1,20000) g;  -- add 20k to make it ~ 200k

CREATE INDEX purchases_3c_idx ON purchases (customer_id, total DESC, id);

VACUUM ANALYZE purchases;

customer table - pour une requête supérieure

CREATE TABLE customer AS
SELECT customer_id, 'customer_' || customer_id AS customer
FROM   purchases
GROUP  BY 1
ORDER  BY 1;

ALTER TABLE customer ADD CONSTRAINT customer_customer_id_pkey PRIMARY KEY (customer_id);

VACUUM ANALYZE customer;

Dans mon deuxième test pour 9.5, j'ai utilisé la même configuration, mais avec random() * 100000 générer customer_id pour obtenir seulement quelques lignes par customer_id.

Tailles d'objet pour la table purchases

Généré avec cette requête.

               what                | bytes/ct | bytes_pretty | bytes_per_row
-----------------------------------+----------+--------------+---------------
 core_relation_size                | 20496384 | 20 MB        |           102
 visibility_map                    |        0 | 0 bytes      |             0
 free_space_map                    |    24576 | 24 kB        |             0
 table_size_incl_toast             | 20529152 | 20 MB        |           102
 indexes_size                      | 10977280 | 10 MB        |            54
 total_size_incl_toast_and_indexes | 31506432 | 30 MB        |           157
 live_rows_in_text_representation  | 13729802 | 13 MB        |            68
 ------------------------------    |          |              |
 row_count                         |   200045 |              |
 live_tuples                       |   200045 |              |
 dead_tuples                       |    19955 |              |

Requêtes

1. row_number() en CTE, (voir autre réponse)

WITH cte AS (
   SELECT id, customer_id, total
        , row_number() OVER(PARTITION BY customer_id ORDER BY total DESC) AS rn
   FROM   purchases
   )
SELECT id, customer_id, total
FROM   cte
WHERE  rn = 1;

2. row_number() en sous-requête (mon optimisation)

SELECT id, customer_id, total
FROM   (
   SELECT id, customer_id, total
        , row_number() OVER(PARTITION BY customer_id ORDER BY total DESC) AS rn
   FROM   purchases
   ) sub
WHERE  rn = 1;

3. DISTINCT ON (voir autre réponse)

SELECT DISTINCT ON (customer_id)
       id, customer_id, total
FROM   purchases
ORDER  BY customer_id, total DESC, id;

4. rCTE avec LATERAL sous-requête (vois ici)

WITH RECURSIVE cte AS (
   (  -- parentheses required
   SELECT id, customer_id, total
   FROM   purchases
   ORDER  BY customer_id, total DESC
   LIMIT  1
   )
   UNION ALL
   SELECT u.*
   FROM   cte c
   ,      LATERAL (
      SELECT id, customer_id, total
      FROM   purchases
      WHERE  customer_id > c.customer_id  -- lateral reference
      ORDER  BY customer_id, total DESC
      LIMIT  1
      ) u
   )
SELECT id, customer_id, total
FROM   cte
ORDER  BY customer_id;

5 customer table avec LATERAL (vois ici)

SELECT l.*
FROM   customer c
,      LATERAL (
   SELECT id, customer_id, total
   FROM   purchases
   WHERE  customer_id = c.customer_id  -- lateral reference
   ORDER  BY total DESC
   LIMIT  1
   ) l;

6. array_agg() avec ORDER BY (voir autre réponse)

SELECT (array_agg(id ORDER BY total DESC))[1] AS id
     , customer_id
     , max(total) AS total
FROM   purchases
GROUP  BY customer_id;

Résultats

Temps d'exécution pour les requêtes ci-dessus avec EXPLAIN ANALYZE (et toutes les options de), meilleur de 5 courses.

Tout requêtes utilisées un Index seulement sur purchases2_3c_idx (entre autres étapes). Certains d'entre eux seulement pour la plus petite taille de l'indice, d'autres plus efficacement.

A. Postgres 9.4 avec 200k lignes et ~ 20 par customer_id

1. 273.274 ms  
2. 194.572 ms  
3. 111.067 ms  
4.  92.922 ms  
5.  37.679 ms  -- winner
6. 189.495 ms

B. La même chose avec Postgres 9.5

1. 288.006 ms
2. 223.032 ms  
3. 107.074 ms  
4.  78.032 ms  
5.  33.944 ms  -- winner
6. 211.540 ms  

C. Même que B., mais avec ~ 2,3 lignes par customer_id

1. 381.573 ms
2. 311.976 ms
3. 124.074 ms  -- winner
4. 710.631 ms
5. 311.976 ms
6. 421.679 ms

Valeur de référence originale (dépassée) de 2011

J'ai effectué trois tests avec PostgreSQL 9.1 sur une table de la vie réelle de 65579 lignes et des index Btree à une colonne sur chacune des trois colonnes impliquées et a pris le meilleur temps d'exécution de 5 courses.
Comparant @OMGPonies ' première requête (A) au au dessus DISTINCT ON Solution (B):

  1. Sélectionnez la table entière, résultats dans 5958 lignes dans ce cas.

    A: 567.218 ms
    B: 386.673 ms
    
  2. Condition d'utilisation WHERE customer BETWEEN x AND y résultant en 1000 lignes.

    A: 249.136 ms
    B:  55.111 ms
    
  3. Sélectionnez un seul client avec WHERE customer = x.

    A:   0.143 ms
    B:   0.072 ms
    

Même test répété avec l'indice décrit dans l'autre réponse

CREATE INDEX purchases_3c_idx ON purchases (customer, total DESC, id);


82
2018-01-11 06:05



C'est commun  problème, qui a déjà bien testé et fortement solutions optimisées. Personnellement je préfère le solution de jointure à gauche par Bill Karwin (la poste original avec beaucoup d'autres solutions).

Notez que beaucoup de solutions à ce problème commun peuvent étonnamment être trouvées dans l'une des sources les plus officielles, Manuel MySQL! Voir Exemples de requêtes communes :: Les lignes contenant le maximum de certaines colonnes dans le groupe.


37
2018-06-27 08:38



Dans Postgres vous pouvez utiliser array_agg comme ça:

SELECT  customer,
        (array_agg(id ORDER BY total DESC))[1],
        max(total)
FROM purchases
GROUP BY customer

Cela vous donnera la id de l'achat le plus important de chaque client.

Quelques choses à noter:

  • array_agg est une fonction d'agrégat, de sorte qu'il fonctionne avec GROUP BY.
  • array_agg vous permet de spécifier un ordre limité à lui-même, de sorte qu'il ne contraint pas la structure de la requête entière. Il y a aussi une syntaxe pour trier les valeurs NULL, si vous avez besoin de faire quelque chose de différent de la valeur par défaut.
  • Une fois que nous construisons le tableau, nous prenons le premier élément. (Les tableaux Postgres sont indexés sur 1, pas indexés sur 0).
  • Vous pourriez utiliser array_agg d'une manière similaire pour votre troisième colonne de sortie, mais max(total) est plus simple.
  • contrairement à DISTINCT ON, en utilisant array_agg vous permet de garder votre GROUP BY, au cas où vous le voudriez pour d'autres raisons.

20
2017-08-27 18:14



La solution n'est pas très efficace comme indiqué par Erwin, en raison de la présence de SubQs

select * from purchases p1 where total in
(select max(total) from purchases where p1.customer=customer) order by total desc;

11
2018-06-17 18:02



J'utilise de cette façon (postgresql seulement): https://wiki.postgresql.org/wiki/First/last_%28aggregate%29

-- Create a function that always returns the first non-NULL item
CREATE OR REPLACE FUNCTION public.first_agg ( anyelement, anyelement )
RETURNS anyelement LANGUAGE sql IMMUTABLE STRICT AS $$
        SELECT $1;
$$;

-- And then wrap an aggregate around it
CREATE AGGREGATE public.first (
        sfunc    = public.first_agg,
        basetype = anyelement,
        stype    = anyelement
);

-- Create a function that always returns the last non-NULL item
CREATE OR REPLACE FUNCTION public.last_agg ( anyelement, anyelement )
RETURNS anyelement LANGUAGE sql IMMUTABLE STRICT AS $$
        SELECT $2;
$$;

-- And then wrap an aggregate around it
CREATE AGGREGATE public.last (
        sfunc    = public.last_agg,
        basetype = anyelement,
        stype    = anyelement
);

Alors votre exemple devrait fonctionner presque comme si:

SELECT FIRST(id), customer, FIRST(total)
FROM  purchases
GROUP BY customer
ORDER BY FIRST(total) DESC;

CAVEAT: ignore les lignes NULL


Édition 1 - Utilisez plutôt l'extension postgres

Maintenant, j'utilise de cette façon: http://pgxn.org/dist/first_last_agg/

Pour installer sur Ubuntu 14.04:

apt-get install postgresql-server-dev-9.3 git build-essential -y
git clone git://github.com/wulczer/first_last_agg.git
cd first_last_app
make && sudo make install
psql -c 'create extension first_last_agg'

C'est une extension postgres qui vous donne les premières et dernières fonctions; apparemment plus rapide que la manière ci-dessus.


Edit 2 - Commande et filtrage

Si vous utilisez des fonctions d'agrégation (comme celles-ci), vous pouvez ordonner les résultats, sans avoir besoin d'avoir les données déjà commandées:

http://www.postgresql.org/docs/current/static/sql-expressions.html#SYNTAX-AGGREGATES

Donc, l'exemple équivalent, avec la commande serait quelque chose comme:

SELECT first(id order by id), customer, first(total order by id)
  FROM purchases
 GROUP BY customer
 ORDER BY first(total);

Bien sûr, vous pouvez commander et filtrer comme vous le souhaitez dans l'agrégat; C'est une syntaxe très puissante.


6
2018-03-10 15:19