Test Kuma Api con Endpoints
Some checks failed
Optimized Build and Deploy with Maintenance Window / remote-build-and-deploy (push) Failing after 10s
Some checks failed
Optimized Build and Deploy with Maintenance Window / remote-build-and-deploy (push) Failing after 10s
This commit is contained in:
@@ -11,20 +11,15 @@ jobs:
|
|||||||
|
|
||||||
steps:
|
steps:
|
||||||
- name: Run Optimized CI/CD Process on Host via SSH
|
- name: Run Optimized CI/CD Process on Host via SSH
|
||||||
# La sección 'env' aquí ya no es necesaria, pasamos los secretos directamente
|
|
||||||
run: |
|
run: |
|
||||||
set -e
|
set -e
|
||||||
|
|
||||||
# Configura SSH
|
|
||||||
apt-get update -qq && apt-get install -y openssh-client git
|
apt-get update -qq && apt-get install -y openssh-client git
|
||||||
mkdir -p ~/.ssh
|
mkdir -p ~/.ssh
|
||||||
echo "${{ secrets.PROD_SERVER_SSH_KEY }}" > ~/.ssh/id_rsa
|
echo "${{ secrets.PROD_SERVER_SSH_KEY }}" > ~/.ssh/id_rsa
|
||||||
chmod 600 ~/.ssh/id_rsa
|
chmod 600 ~/.ssh/id_rsa
|
||||||
ssh-keyscan -H ${{ secrets.PROD_SERVER_HOST }} >> ~/.ssh/known_hosts
|
ssh-keyscan -H ${{ secrets.PROD_SERVER_HOST }} >> ~/.ssh/known_hosts
|
||||||
|
|
||||||
# --- ¡CAMBIO CLAVE AQUÍ! ---
|
|
||||||
# Inyectamos los secretos como variables de entorno para el comando remoto
|
|
||||||
# Y luego ejecutamos el script del heredoc con 'bash -s'
|
|
||||||
ssh ${{ secrets.PROD_SERVER_USER }}@${{ secrets.PROD_SERVER_HOST }} "
|
ssh ${{ secrets.PROD_SERVER_USER }}@${{ secrets.PROD_SERVER_HOST }} "
|
||||||
export UPTIME_KUMA_URL='${{ secrets.UPTIME_KUMA_URL }}'
|
export UPTIME_KUMA_URL='${{ secrets.UPTIME_KUMA_URL }}'
|
||||||
export UPTIME_KUMA_API_KEY='${{ secrets.UPTIME_KUMA_API_KEY }}'
|
export UPTIME_KUMA_API_KEY='${{ secrets.UPTIME_KUMA_API_KEY }}'
|
||||||
@@ -37,43 +32,48 @@ jobs:
|
|||||||
echo "--- INICIO DEL DESPLIEGUE OPTIMIZADO ---"
|
echo "--- INICIO DEL DESPLIEGUE OPTIMIZADO ---"
|
||||||
|
|
||||||
# --- SECCIÓN DE MONITOREO ---
|
# --- SECCIÓN DE MONITOREO ---
|
||||||
# Las variables (UPTIME_KUMA_URL, etc.) ahora están disponibles gracias al comando 'export' anterior.
|
if ! command -v curl &> /dev/null; then
|
||||||
|
echo "Instalando curl..."
|
||||||
# Instalar curl y jq si no están presentes
|
sudo apt-get update -qq && sudo apt-get install -y curl
|
||||||
if ! command -v curl &> /dev/null || ! command -v jq &> /dev/null; then
|
|
||||||
echo "Instalando curl y jq..."
|
|
||||||
# Usar 'sudo' si el usuario no es root
|
|
||||||
sudo apt-get update -qq && sudo apt-get install -y curl jq
|
|
||||||
fi
|
fi
|
||||||
|
|
||||||
# Función para cambiar el estado de la ventana de mantenimiento
|
# --- ¡FUNCIONES CORREGIDAS! ---
|
||||||
toggle_maintenance() {
|
# Función para PAUSAR el monitoreo
|
||||||
|
pause_maintenance() {
|
||||||
local id=$1
|
local id=$1
|
||||||
local active_state=$2
|
echo "Pausando mantenimiento para la ventana ID:${id}"
|
||||||
echo "Cambiando estado de mantenimiento de la ventana ID:${id} a: ${active_state}"
|
local response=$(curl -s -w "%{http_code}" -X POST "${UPTIME_KUMA_URL}/api/maintenances/${id}/pause" \
|
||||||
|
-H "Authorization: Bearer ${UPTIME_KUMA_API_KEY}")
|
||||||
# Corregido: el endpoint es '/maintenances/' (plural)
|
|
||||||
local response=$(curl -s -w "%{http_code}" -X PATCH "${UPTIME_KUMA_URL}/api/maintenances/${id}" \
|
|
||||||
-H "Content-Type: application/json" \
|
|
||||||
-H "Authorization: Bearer ${UPTIME_KUMA_API_KEY}" \
|
|
||||||
--data-raw "{\"active\": ${active_state}}")
|
|
||||||
|
|
||||||
local http_code=$(tail -n1 <<< "$response")
|
local http_code=$(tail -n1 <<< "$response")
|
||||||
if [ "$http_code" -ne 200 ]; then
|
if [ "$http_code" -ne 200 ]; then
|
||||||
echo "Error al interactuar con la API de Uptime Kuma. Código HTTP: $http_code"
|
echo "Error al pausar el monitoreo. Código HTTP: $http_code"
|
||||||
# Opcional: imprimir el cuerpo de la respuesta para más detalles
|
|
||||||
echo "Cuerpo de la respuesta: $(head -n -1 <<< "$response")"
|
|
||||||
return 1
|
return 1
|
||||||
fi
|
fi
|
||||||
echo "Estado de mantenimiento actualizado con éxito."
|
echo "Monitoreo pausado con éxito."
|
||||||
}
|
}
|
||||||
|
|
||||||
# Usamos 'trap' para asegurar que el monitoreo se reanude siempre.
|
# Función para REANUDAR el monitoreo
|
||||||
trap 'echo "--- Limpiando: Reanudando monitoreo ---"; toggle_maintenance "$UPTIME_KUMA_MAINTENANCE_ID" false' EXIT
|
resume_maintenance() {
|
||||||
|
local id=$1
|
||||||
|
echo "Reanudando monitoreo para la ventana ID:${id}"
|
||||||
|
local response=$(curl -s -w "%{http_code}" -X POST "${UPTIME_KUMA_URL}/api/maintenances/${id}/resume" \
|
||||||
|
-H "Authorization: Bearer ${UPTIME_KUMA_API_KEY}")
|
||||||
|
|
||||||
# Activamos el mantenimiento
|
local http_code=$(tail -n1 <<< "$response")
|
||||||
|
if [ "$http_code" -ne 200 ]; then
|
||||||
|
echo "Error al reanudar el monitoreo. Código HTTP: $http_code"
|
||||||
|
return 1
|
||||||
|
fi
|
||||||
|
echo "Monitoreo reanudado con éxito."
|
||||||
|
}
|
||||||
|
|
||||||
|
# 'trap' ahora llama a la función correcta 'resume_maintenance'
|
||||||
|
trap 'echo "--- Limpiando: Reanudando monitoreo ---"; resume_maintenance "$UPTIME_KUMA_MAINTENANCE_ID"' EXIT
|
||||||
|
|
||||||
|
# Pausamos el mantenimiento
|
||||||
echo "--- Pausando monitoreo en Uptime Kuma ---"
|
echo "--- Pausando monitoreo en Uptime Kuma ---"
|
||||||
toggle_maintenance "$UPTIME_KUMA_MAINTENANCE_ID" true
|
pause_maintenance "$UPTIME_KUMA_MAINTENANCE_ID"
|
||||||
|
|
||||||
# --- FIN SECCIÓN DE MONITOREO ---
|
# --- FIN SECCIÓN DE MONITOREO ---
|
||||||
|
|
||||||
@@ -83,10 +83,9 @@ jobs:
|
|||||||
REPO_NAME="gestionintegralweb"
|
REPO_NAME="gestionintegralweb"
|
||||||
GITEA_REPO_PATH="/var/lib/docker/volumes/gitea-stack_gitea-data/_data/git/repositories/${REPO_OWNER}/${REPO_NAME}.git"
|
GITEA_REPO_PATH="/var/lib/docker/volumes/gitea-stack_gitea-data/_data/git/repositories/${REPO_OWNER}/${REPO_NAME}.git"
|
||||||
|
|
||||||
echo "Clonando repositorio desde: $GITEA_REPO_PATH ..."
|
echo "Clonando repositorio..."
|
||||||
git clone "$GITEA_REPO_PATH" "$TEMP_DIR"
|
git clone "$GITEA_REPO_PATH" "$TEMP_DIR"
|
||||||
cd "$TEMP_DIR"
|
cd "$TEMP_DIR"
|
||||||
# La variable GITEA_SHA fue exportada antes del heredoc
|
|
||||||
git checkout "$GITEA_SHA"
|
git checkout "$GITEA_SHA"
|
||||||
|
|
||||||
# 2. Construcción paralela
|
# 2. Construcción paralela
|
||||||
@@ -97,17 +96,15 @@ jobs:
|
|||||||
echo "Construyendo $image_name..."
|
echo "Construyendo $image_name..."
|
||||||
docker build -t "$image_name" -f "$dockerfile" "$context"
|
docker build -t "$image_name" -f "$dockerfile" "$context"
|
||||||
}
|
}
|
||||||
echo "Construyendo imágenes en paralelo..."
|
echo "Construyendo imágenes..."
|
||||||
(build_image "Backend/GestionIntegral.Api/Dockerfile" "dmolinari/gestionintegralweb-backend:latest" ".") &
|
(build_image "Backend/GestionIntegral.Api/Dockerfile" "dmolinari/gestionintegralweb-backend:latest" ".") &
|
||||||
(build_image "Frontend/Dockerfile" "dmolinari/gestionintegralweb-frontend:latest" ".") &
|
(build_image "Frontend/Dockerfile" "dmolinari/gestionintegralweb-frontend:latest" ".") &
|
||||||
wait
|
wait
|
||||||
|
|
||||||
# 3. Despliegue con Docker Compose
|
# 3. Despliegue con Docker Compose
|
||||||
cd /opt/gestion-integral
|
cd /opt/gestion-integral
|
||||||
# La variable DB_SA_PASSWORD ya fue exportada al inicio.
|
echo "Recreando servicios..."
|
||||||
echo "--- INICIO DE LA RECREACIÓN DE SERVICIOS (MONITOREO PAUSADO) ---"
|
|
||||||
docker compose up -d --force-recreate
|
docker compose up -d --force-recreate
|
||||||
echo "--- FIN DE LA RECREACIÓN DE SERVICIOS ---"
|
|
||||||
|
|
||||||
# 4. Limpieza
|
# 4. Limpieza
|
||||||
echo "Realizando limpieza de imágenes..."
|
echo "Realizando limpieza de imágenes..."
|
||||||
|
|||||||
Reference in New Issue
Block a user