Les Trois Grandes Catégories
Objectifs
Les objectifs de cette vidéo sont de :
- Comprendre les concepts de parallélisme et de concurrence
- Apprendre à gérer les dépendances externes de manière efficace
- Différencier les stratégies bloquantes et non bloquantes
Résumé
Apprenez les trois catégories principales de partage du travail en programmation : parallélisme, concurrence et dépendance externe.
Description
Cette leçon couvre trois grandes méthodes de partage du travail dans un programme informatique. La première méthode est le parallélisme, où deux tâches s'exécutent simultanément sans interférer l'une avec l'autre, permettant un gain de temps significatif. La deuxième méthode est la concurrence, où plusieurs tâches partagent la même ressource et se relaient pour l'utiliser, ce qui peut entraîner des retards. Enfin, la troisième méthode consiste à gérer des tâches qui dépendent de nombreuses sources externes, souvent imprévisibles. On distingue ici les stratégies bloquantes et non bloquantes (ou asynchrones) pour traiter ces dépendances.
Je suis vraiment tres satisfait par cette première formation suivie sur Python.
#CODE en python 3.10.0 64 bits (VScode 1.62.3)
import datetime
import asyncio
import aiohttp
import requests
# ----------------------------------------------------------------------------------------------------------------------------
def req_bloquante(num):
print(f"Get {num}")
uid = requests.get("https://httpbin.org/uuid").json()["uuid"]
print(f"Res {num}: {uid}")
def faire_toutes_les_requetes():
for x in range(51):
req_bloquante(x)
print("=====> ### Bloquant : ")
start = datetime.datetime.now()
faire_toutes_les_requetes()
exec_time = (datetime.datetime.now() - start).seconds
print(f"Downloading all take {exec_time} seconds\n")
# ----------------------------------------------------------------------------------------------------------------------------
async def requeteSansBloquer(semaphore, num, session):
print(f"Get {num}")
# await semaphore.acquire() # putting this await semaphore commande the Res is ordering but process very slow ~60 sec
async with session.get("https://httpbin.org/uuid") as response:
uid = (await response.json())["uuid"]
# await asyncio.sleep(delay=3) #delay = number of seconds
# semaphore.release()
print(f"Res {num}: {uid}")
# return uid # ?
async def main():
semaphore = asyncio.Semaphore(value=1)
tasks = []
async with aiohttp.ClientSession(
loop=loop, connector=aiohttp.TCPConnector(ssl=False)
) as session:
for x in range(51):
tasks.append(requeteSansBloquer(semaphore, x, session))
await asyncio.gather(*tasks)
print("This is after the loop...")
if __name__ == "__main__":
print("=====> ### Non Bloquant : ")
start = datetime.datetime.now()
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
exec_time = (datetime.datetime.now() - start).microseconds
print(f"Downloading all take {exec_time} micro seconds\n")