SlideShare una empresa de Scribd logo
Ceph: The Storage System of the Future
1
2
3
1.
RAID y sus diferentes niveles
“RAID: Redundant Array of
Independent Disks
RAID Y SUS NIVELES
○ Tradicionalmente se ha utilizado RAID
como solución de almacenamiento
RAID Y SUS NIVELES
○ RAID utiliza diferentes niveles para
obtener redundancia y/o rendimiento
○ RAID 0, 1, 5, 6...
RAID Y SUS NIVELES
○ RAID NO ESCALA
● Los tiempos de reconstrucción crecen cada vez
más
● Las probabilidades de fallo aumentan
drásticamente
RAID Y SUS NIVELES
Fuente: ActualTech
http://www.actualtech.io/real
ly-outgrown-raid/
RAID Y SUS NIVELES
Fuente: ActualTech
http://www.actualtech.io/real
ly-outgrown-raid/
RAID Y SUS NIVELES
○ ¿Qué alternativas tengo?
● Sistemas de ficheros distribuidos
● “Appliances” de diferentes fabricantes
● Ceph
2.
¡Escalando hacia el exabyte!
“¡CEPH NO ES UN SISTEMA DE
FICHEROS!
“¡CEPH ES UN SISTEMA DE
ALMACENAMIENTO DE OBJETOS!
Ceph: ¡Escalando hacia el exabyte!
Ceph: ¡Escalando hacia el exabyte!
Ceph: ¡Escalando hacia el exabyte!
Ceph: ¡Escalando hacia el exabyte!
○ Objetos, bloques y ficheros
○ Escala horizontalmente
○ No tiene un punto único de fallo
(SPOF)
○ Funciona en “commodity hardware”
○ Autogestionado
○ Open source (LGPL)
Ceph: ¡Escalando hacia el exabyte!
○ Objetos, ficheros y bloques. Ceph puede
exponer todo ellos al exterior
○ Todo esto se consigue gracias a: “Reliable
Autonomic Distributed Object Store
(RADOS)
Ceph: ¡Escalando hacia el exabyte!
Ceph: ¡Escalando hacia el exabyte!
Clientes Ceph: Se comunican directamente
con los OSD’s.
Ceph utiliza CRUSH para decidir dónde
colocar los datos.
Ceph: ¡Escalando hacia el exabyte!
Ceph: ¡Escalando hacia el exabyte!
○ Estructura básica: Monitores y OSD’s
Ceph: ¡Escalando hacia el exabyte!
○ Monitores: Contienen una copia maestra
del mapa del cluster
○ OSD’s: Actúan como dispositivos de
almacenamiento
Ceph: ¡Escalando hacia el exabyte!
El mapa del cluster contiene:
○ Mapa de los monitores
○ Mapa de los OSD’s
○ Mapa de los PG’s
○ Mapa CRUSH
○ Mapa MDS
Ceph: ¡Escalando hacia el exabyte!
CephX como mecanismo de autenticación:
○ Similar a Kerberos
○ Sin punto único de fallo. Cada monitor
puede crear y distribuir claves
Ceph: ¡Escalando hacia el exabyte!
Ceph: ¡Escalando hacia el exabyte!
Ceph: ¡Escalando hacia el exabyte!
Los clientes y los OSD’s
del cluster tienen
conocimiento de la
estructura del cluster
Los clientes pueden
hablar directamente
con los OSD’s
Los OSD’s pueden
utilizar sus recursos,
RAM y CPU, para
realizar las réplicas y
otras tareas.
Ceph: ¡Escalando hacia el exabyte!
El cliente escribe un
objeto en el OSD
primario y es el OSD el
que lo replica
Ceph: ¡Escalando hacia el exabyte!
Ceph soporta el
concepto de “pools”
particiones lógicas para
almacenar los objetos
Ceph: ¡Escalando hacia el exabyte!
Ceph “mapea” cada
escritura a un
placement group (PG) y
cada PG a un OSD
Ceph: ¡Escalando hacia el exabyte!
Para calcular a que PG tiene que ir un
objeto:
○ ID de la Pool y el objeto
○ hash(id_objeto)
○ modulo(hash(id_objeto))
○ ID Pool.modulo(hash(id_objeto))
Ceph: ¡Escalando hacia el exabyte!
Cuando se añade un
nuevo OSD, el mapa
del cluster cambia y
Ceph PG’s
Ceph: ¡Escalando hacia el exabyte!
Ceph soporta
igualmente “Erasure
Coding” donde cada
objeto se guarda en “K”
trozos de datos y “M”
trozos de paridad”
Ceph: ¡Escalando hacia el exabyte!
Utilizar la técnica del
“erasure coding”
permite utilizar de
forma más eficiente el
almacenamiento a
costa del rendimiento
Ejemplo:
○ N = k + m
○ 5 = 3 + 2
○ Encoding Rate “R” =
3 / 5 = 0.6
○ Almacenamiento
requerido = 1 / r =
1.6
Ceph: ¡Escalando hacia el exabyte!
Aún con todo, Ceph no
es perfecto. Cada
escritura implica dos
escrituras.
Ceph: ¡Escalando hacia el exabyte!
Para mejorar el
rendimiento han
desarrollado BlueStore
Utilizando una
pequeña partición para
metadatos, permite
utilizar el resto del
dispositivo sin un
sistema de ficheros
(RAW)
Mejorará el
rendimiento de forma
sustancial.
Ceph: ¡Escalando el exabyte!
Ceph: ¡Escalando hacia el exabyte!
Casos de uso
Ceph: ¡Escalando hacia el exabyte!
Ceph integrado en
Atlantis (Cinder)
Reducción de costes de
almacenamiento y
mayor rendimiento
Ceph: ¡Escalando hacia el exabyte!
Totalmente integrado
en OpenStack: VM’s,
bloques, objetos y
CephFS
Ceph: ¡Escalando hacia el exabyte!
Ceph: ¡Escalando hacia el exabyte!
Opciones de monitorización:
○ Calamari
○ InkScope
○ Grafana
Ceph: ¡Escalando hacia el exabyte!
Ceph: ¡Escalando hacia el exabyte!
Ceph: ¡Escalando hacia el exabyte!
And now...
3.
Pequeño tutorial sobre Ceph
Ceph: Tutorial
Primeros pasos:
○ Instalar Vagrant y VirtualBox
○ Instalar Git (https://goo.gl/Xoj9FF)
○ Instalar los plugins de Vagrant:
● Vagrant-cachier
● Vagrant-hostmanager
Ceph: The Storage System of the Future

Más contenido relacionado

PDF
Datio OpenStack
PPTX
Introducción a Apache Spark
PDF
Ansible + AWS: Cómo administrar tu infraestructura de AWS con Ansible
DOCX
PDF
Bases de datos NoSQL - Huancayo - 2010
PDF
OpenNebulaConf 2016 - Fast Prototyping of a C.O. into a Micro Data Center - A...
PDF
Big data para desarrolladores utilizando hadoop y openstack
PDF
Novedades en la release Juno de OpenStack
Datio OpenStack
Introducción a Apache Spark
Ansible + AWS: Cómo administrar tu infraestructura de AWS con Ansible
Bases de datos NoSQL - Huancayo - 2010
OpenNebulaConf 2016 - Fast Prototyping of a C.O. into a Micro Data Center - A...
Big data para desarrolladores utilizando hadoop y openstack
Novedades en la release Juno de OpenStack

La actualidad más candente (20)

PPTX
Benchmarking
PPTX
Estudio sobre Spark, Storm, Kafka y Hive
PDF
Arquitetcura x86 para Red Hat
PDF
Kubernetes - Container Orchestration, Deployment and Scaling
PDF
Postgres como base de datos NoSQL. Codemotion 2015
PDF
Rackspace vs azure
PPTX
Big data con Hadoop y SSIS 2016
PDF
Propedéutico de OpenStack
PPTX
Qnap Broadcast 2020
PPTX
Qnap Broadcast 2020 MX
PDF
Rendimiento extremo en php
PDF
Datos sin fronteras
PPTX
Overview atlas (1)
PPTX
Hyperdex
PDF
Kubernetes - #gdglimasummit
PPTX
Presentación deteccion de_paredes_celulares_cali_moreno
PDF
Procesamiento masivo de datos en MongoDB
PDF
Servidores de mapas en alta disponibilidad CyLiconValley
PDF
Elasticsearch 101 (Part 1)
ODP
Presentacion instaladores os debian centos
Benchmarking
Estudio sobre Spark, Storm, Kafka y Hive
Arquitetcura x86 para Red Hat
Kubernetes - Container Orchestration, Deployment and Scaling
Postgres como base de datos NoSQL. Codemotion 2015
Rackspace vs azure
Big data con Hadoop y SSIS 2016
Propedéutico de OpenStack
Qnap Broadcast 2020
Qnap Broadcast 2020 MX
Rendimiento extremo en php
Datos sin fronteras
Overview atlas (1)
Hyperdex
Kubernetes - #gdglimasummit
Presentación deteccion de_paredes_celulares_cali_moreno
Procesamiento masivo de datos en MongoDB
Servidores de mapas en alta disponibilidad CyLiconValley
Elasticsearch 101 (Part 1)
Presentacion instaladores os debian centos
Publicidad

Similar a Ceph: The Storage System of the Future (20)

PDF
Almacenamiento de objetos en Ceph y su API S3 (LibreCon 2017)
PPTX
Ceph Meetup
PDF
"Cloudificación" de servicios: retos y oportunidades
PPTX
Sistemas virtual de archivos en linux.
PPTX
Cloud Computing y MapReduce
PPT
Curso linux operación
PPTX
Administracion de Redes
PPSX
FS_and_SWAP
PDF
Cuestionario Sistemas Operativos
DOCX
PDF
Sistemas de archivos linux
DOCX
El sistema de ficheros
ODP
Curso Basico Ponencia 1
PDF
Almacenamiento en disco: mejora de la velocidad y de la seguridad - Juan Piernas
PDF
Debian hackers elementals
PDF
Alfio Muñoz - Alta disponibilidad con Elastix
PPTX
Hadoop Distributed File System (HDFS) pt2.pptx
PDF
Evidencia005
Almacenamiento de objetos en Ceph y su API S3 (LibreCon 2017)
Ceph Meetup
"Cloudificación" de servicios: retos y oportunidades
Sistemas virtual de archivos en linux.
Cloud Computing y MapReduce
Curso linux operación
Administracion de Redes
FS_and_SWAP
Cuestionario Sistemas Operativos
Sistemas de archivos linux
El sistema de ficheros
Curso Basico Ponencia 1
Almacenamiento en disco: mejora de la velocidad y de la seguridad - Juan Piernas
Debian hackers elementals
Alfio Muñoz - Alta disponibilidad con Elastix
Hadoop Distributed File System (HDFS) pt2.pptx
Evidencia005
Publicidad

Más de Datio Big Data (20)

PDF
Búsqueda IA
PDF
Descubriendo la Inteligencia Artificial
PDF
Learning Python. Level 0
PDF
Learn Python
PDF
How to document without dying in the attempt
PDF
Developers on test
PDF
A Travel Through Mesos
PDF
Quality Assurance Glossary
PDF
Data Integration
PDF
Gamification: from buzzword to reality
PDF
Pandas: High Performance Structured Data Manipulation
PPTX
Apache Spark II (SparkSQL)
PDF
Road to Analytics
PDF
Introduction to Apache Spark
PDF
Del Mono al QA
PDF
Databases and how to choose them
PPTX
DC/OS: The definitive platform for modern apps
PPTX
PDP Your personal development plan
PPTX
Security&Governance
PDF
Kafka Connect by Datio
Búsqueda IA
Descubriendo la Inteligencia Artificial
Learning Python. Level 0
Learn Python
How to document without dying in the attempt
Developers on test
A Travel Through Mesos
Quality Assurance Glossary
Data Integration
Gamification: from buzzword to reality
Pandas: High Performance Structured Data Manipulation
Apache Spark II (SparkSQL)
Road to Analytics
Introduction to Apache Spark
Del Mono al QA
Databases and how to choose them
DC/OS: The definitive platform for modern apps
PDP Your personal development plan
Security&Governance
Kafka Connect by Datio

Último (20)

PPT
tema DISEÑO ORGANIZACIONAL UNIDAD 1 A.ppt
PDF
COMPARACION DE LA NUEVA LEY DE CONTRATAIONES DEL ESTADO 30269.pdf
PDF
Comprension-de-las-estructuras-en-arquitectura-Fuller-Moore.pdf
PDF
Informe Estudio Final Apagon del 25 de febrero
PDF
marco legar de la gestion tecnologica en venezuela
PPT
Deacero presentacion tecnica para clientes
PDF
MATRIZ IDENTIFICACIÓN EVALUACION CONTROL PRL.pdf
PDF
CI digitales -1. Introduccion 2024-25.pdf
PDF
Marco Legal de la Gestión Tecnológica en Venezuela - Enderson Mendez
PDF
Circuito de CCTV para Institucion-es.pdf
PPTX
Explosives+Awareness Parte4 , 5 y 6.pptx
PDF
fulguracion-medicina-legal-418035-downloable-2634665.pdf lesiones por descarg...
PDF
5 Presentación de PowerPointGENERACIÓN DESECHOS UIS 18-02-2023 (1).pdf
PPTX
Curso USO Y MANTENCIÓN DE ELEMENTOS DE PROTECCIÓN PERSONAL.pptx
PDF
5-1 Presentacion TDM PDH.pdf................................
PDF
SUBDIVISIÓN URBANA PUEDE ENFRENTAR SERVIDUMBRE DE PASO.pdf
PPTX
Semana 3 - Capacidad Juridica detallada.pptx
PPTX
Mantenimiento dp COMPUTADORES 89ER PARA UE
PDF
CALIDAD SSOMA AMBIENTE PRL UNIVERSIDADDD
PDF
Primera formulación de cargos de la SEC en contra del CEN
tema DISEÑO ORGANIZACIONAL UNIDAD 1 A.ppt
COMPARACION DE LA NUEVA LEY DE CONTRATAIONES DEL ESTADO 30269.pdf
Comprension-de-las-estructuras-en-arquitectura-Fuller-Moore.pdf
Informe Estudio Final Apagon del 25 de febrero
marco legar de la gestion tecnologica en venezuela
Deacero presentacion tecnica para clientes
MATRIZ IDENTIFICACIÓN EVALUACION CONTROL PRL.pdf
CI digitales -1. Introduccion 2024-25.pdf
Marco Legal de la Gestión Tecnológica en Venezuela - Enderson Mendez
Circuito de CCTV para Institucion-es.pdf
Explosives+Awareness Parte4 , 5 y 6.pptx
fulguracion-medicina-legal-418035-downloable-2634665.pdf lesiones por descarg...
5 Presentación de PowerPointGENERACIÓN DESECHOS UIS 18-02-2023 (1).pdf
Curso USO Y MANTENCIÓN DE ELEMENTOS DE PROTECCIÓN PERSONAL.pptx
5-1 Presentacion TDM PDH.pdf................................
SUBDIVISIÓN URBANA PUEDE ENFRENTAR SERVIDUMBRE DE PASO.pdf
Semana 3 - Capacidad Juridica detallada.pptx
Mantenimiento dp COMPUTADORES 89ER PARA UE
CALIDAD SSOMA AMBIENTE PRL UNIVERSIDADDD
Primera formulación de cargos de la SEC en contra del CEN

Ceph: The Storage System of the Future

  • 3. 1. RAID y sus diferentes niveles
  • 4. “RAID: Redundant Array of Independent Disks
  • 5. RAID Y SUS NIVELES ○ Tradicionalmente se ha utilizado RAID como solución de almacenamiento
  • 6. RAID Y SUS NIVELES ○ RAID utiliza diferentes niveles para obtener redundancia y/o rendimiento ○ RAID 0, 1, 5, 6...
  • 7. RAID Y SUS NIVELES ○ RAID NO ESCALA ● Los tiempos de reconstrucción crecen cada vez más ● Las probabilidades de fallo aumentan drásticamente
  • 8. RAID Y SUS NIVELES Fuente: ActualTech http://www.actualtech.io/real ly-outgrown-raid/
  • 9. RAID Y SUS NIVELES Fuente: ActualTech http://www.actualtech.io/real ly-outgrown-raid/
  • 10. RAID Y SUS NIVELES ○ ¿Qué alternativas tengo? ● Sistemas de ficheros distribuidos ● “Appliances” de diferentes fabricantes ● Ceph
  • 12. “¡CEPH NO ES UN SISTEMA DE FICHEROS!
  • 13. “¡CEPH ES UN SISTEMA DE ALMACENAMIENTO DE OBJETOS!
  • 14. Ceph: ¡Escalando hacia el exabyte!
  • 15. Ceph: ¡Escalando hacia el exabyte!
  • 16. Ceph: ¡Escalando hacia el exabyte!
  • 17. Ceph: ¡Escalando hacia el exabyte! ○ Objetos, bloques y ficheros ○ Escala horizontalmente ○ No tiene un punto único de fallo (SPOF) ○ Funciona en “commodity hardware” ○ Autogestionado ○ Open source (LGPL)
  • 18. Ceph: ¡Escalando hacia el exabyte! ○ Objetos, ficheros y bloques. Ceph puede exponer todo ellos al exterior ○ Todo esto se consigue gracias a: “Reliable Autonomic Distributed Object Store (RADOS)
  • 19. Ceph: ¡Escalando hacia el exabyte!
  • 20. Ceph: ¡Escalando hacia el exabyte! Clientes Ceph: Se comunican directamente con los OSD’s. Ceph utiliza CRUSH para decidir dónde colocar los datos.
  • 21. Ceph: ¡Escalando hacia el exabyte!
  • 22. Ceph: ¡Escalando hacia el exabyte! ○ Estructura básica: Monitores y OSD’s
  • 23. Ceph: ¡Escalando hacia el exabyte! ○ Monitores: Contienen una copia maestra del mapa del cluster ○ OSD’s: Actúan como dispositivos de almacenamiento
  • 24. Ceph: ¡Escalando hacia el exabyte! El mapa del cluster contiene: ○ Mapa de los monitores ○ Mapa de los OSD’s ○ Mapa de los PG’s ○ Mapa CRUSH ○ Mapa MDS
  • 25. Ceph: ¡Escalando hacia el exabyte! CephX como mecanismo de autenticación: ○ Similar a Kerberos ○ Sin punto único de fallo. Cada monitor puede crear y distribuir claves
  • 26. Ceph: ¡Escalando hacia el exabyte!
  • 27. Ceph: ¡Escalando hacia el exabyte!
  • 28. Ceph: ¡Escalando hacia el exabyte! Los clientes y los OSD’s del cluster tienen conocimiento de la estructura del cluster Los clientes pueden hablar directamente con los OSD’s Los OSD’s pueden utilizar sus recursos, RAM y CPU, para realizar las réplicas y otras tareas.
  • 29. Ceph: ¡Escalando hacia el exabyte! El cliente escribe un objeto en el OSD primario y es el OSD el que lo replica
  • 30. Ceph: ¡Escalando hacia el exabyte! Ceph soporta el concepto de “pools” particiones lógicas para almacenar los objetos
  • 31. Ceph: ¡Escalando hacia el exabyte! Ceph “mapea” cada escritura a un placement group (PG) y cada PG a un OSD
  • 32. Ceph: ¡Escalando hacia el exabyte! Para calcular a que PG tiene que ir un objeto: ○ ID de la Pool y el objeto ○ hash(id_objeto) ○ modulo(hash(id_objeto)) ○ ID Pool.modulo(hash(id_objeto))
  • 33. Ceph: ¡Escalando hacia el exabyte! Cuando se añade un nuevo OSD, el mapa del cluster cambia y Ceph PG’s
  • 34. Ceph: ¡Escalando hacia el exabyte! Ceph soporta igualmente “Erasure Coding” donde cada objeto se guarda en “K” trozos de datos y “M” trozos de paridad”
  • 35. Ceph: ¡Escalando hacia el exabyte! Utilizar la técnica del “erasure coding” permite utilizar de forma más eficiente el almacenamiento a costa del rendimiento Ejemplo: ○ N = k + m ○ 5 = 3 + 2 ○ Encoding Rate “R” = 3 / 5 = 0.6 ○ Almacenamiento requerido = 1 / r = 1.6
  • 36. Ceph: ¡Escalando hacia el exabyte! Aún con todo, Ceph no es perfecto. Cada escritura implica dos escrituras.
  • 37. Ceph: ¡Escalando hacia el exabyte! Para mejorar el rendimiento han desarrollado BlueStore Utilizando una pequeña partición para metadatos, permite utilizar el resto del dispositivo sin un sistema de ficheros (RAW) Mejorará el rendimiento de forma sustancial.
  • 39. Ceph: ¡Escalando hacia el exabyte! Casos de uso
  • 40. Ceph: ¡Escalando hacia el exabyte! Ceph integrado en Atlantis (Cinder) Reducción de costes de almacenamiento y mayor rendimiento
  • 41. Ceph: ¡Escalando hacia el exabyte! Totalmente integrado en OpenStack: VM’s, bloques, objetos y CephFS
  • 42. Ceph: ¡Escalando hacia el exabyte!
  • 43. Ceph: ¡Escalando hacia el exabyte! Opciones de monitorización: ○ Calamari ○ InkScope ○ Grafana
  • 44. Ceph: ¡Escalando hacia el exabyte!
  • 45. Ceph: ¡Escalando hacia el exabyte!
  • 46. Ceph: ¡Escalando hacia el exabyte! And now...
  • 48. Ceph: Tutorial Primeros pasos: ○ Instalar Vagrant y VirtualBox ○ Instalar Git (https://goo.gl/Xoj9FF) ○ Instalar los plugins de Vagrant: ● Vagrant-cachier ● Vagrant-hostmanager