Casa Garza Jasso ← Reading
Home Luis Pau
← Volver al índice

📚 Articles Collection

Blog posts, articles, long reads, and educational content.


🎨 A Design Thinker's Guide to AI and Creativity — Stanford d.school

Author: Melissa De Witte (feature on Jeremy Utley) | Source: Stanford University / ScienceSprings | Added: 2026-02-21

ai creativity education stanford design-thinking prompting
Resumen: Jeremy Utley, profesor adjunto del Stanford d.school, propone que la diferencia entre los que obtienen resultados transformadores de IA y los que no es simple: ¿tratas la IA como herramienta o como compañero de equipo? El artículo explora técnicas concretas — reverse prompting, aprovechar el "glazing" para creatividad, flujos divergente/convergente separados — respaldadas por neurociencia y behavioral economics.
Key Takeaways:
  • Reverse Prompting: Pídele a la IA que te haga preguntas antes de generar — surfacea contexto que no sabías que tenías que dar
  • AI Glazing como feature, no bug: La sycophancy de la IA crea seguridad psicológica para ideas más arriesgadas en la fase divergente
  • Dos fases separadas: Divergente (volumen, ideas locas, sin crítica) → Convergente (evaluación rigurosa con criterios predefinidos). Nunca mezclar
  • Generar volumen: Pedir 20 opciones, no 3. Uno de los hábitos de mayor impacto y menos usados
  • Enseñarle tu gusto: Si no sabes articular qué hace que tu trabajo sea tuyo, la IA produce promedio. La auto-conciencia creativa es el mayor leverage
  • Satisficing (Herbert Simon): Los humanos paramos en "suficientemente bueno" — la IA bien usada rompe ese patrón
  • Permanecer comprometido: El riesgo no es que la IA haga demasiado — es que el humano se desconecte
💡 Relevante para cualquier proceso creativo — writing, estrategia, producto. La meta-lección: la inversión más valiosa no son mejores prompts, es desarrollar mayor auto-conciencia creativa para que cuando la IA te amplifique, amplifique algo que valga la pena.

📄 Ver artículo completo

🤖 Harper Carroll AI Course — Session 1: Foundations of Generative AI

Course: Harper Carroll AI Course | Slides: harpercarroll.ai/slides/session-1 | Added: 2026-02-21

ai education course llm transformers rag
Resumen: Session 1 construye el mapa mental completo de la IA generativa: cómo los datos se convierten en números, cómo los LLMs predicen el siguiente token, la arquitectura Transformer (self-attention, positional encodings, multi-head attention), el pipeline de entrenamiento (pre-training → fine-tuning → RLHF → RLAIF), RAG como estrategia de grounding, context windows, alucinaciones, y la diferencia entre chatbots y agentes. Dense pero fundamental.
Key Takeaways:
  • LLMs = completadores de patrones, no oráculos — hacen statistical continuation, no razonamiento humano. Esto explica alucinaciones y por qué el prompting importa
  • Transformer = self-attention en paralelo — todos los tokens se atienden entre sí simultáneamente, desbloqueando escala y contexto largo
  • Lost-in-the-middle — los modelos dan más peso al inicio y final del contexto. Pon lo importante al principio o al final
  • RAG = grounding factual práctico — embed corpus → similarity search → augment prompt → generate. Reduce alucinaciones pero no las elimina
  • Fine-tuning <$5 en 20 min — más accesible de lo que parece para tareas especializadas
  • Sycophancy es un artifact de RLHF — los modelos aprenden a decirte lo que quieres oír. Peor con modelos más capaces
  • Agentes ≠ Chatbots — agentes analizan, usan tools, toman acciones con side effects. Implica prompt injection y riesgos de retención de datos
  • Distilación legal solo si autohosteado — DeepSeek R1 como caso de estudio
💡 Next: Session 2 profundiza en reasoning models y prompt engineering. Session 3 = coding agents (tarea: instalar Claude Code / Codex antes de la sesión).

📄 Ver notas completas

🤖 Harper Carroll AI Course — Session 2: The Method (Prompting & Workflows)

Course: Harper Carroll AI Course | Slides: harpercarroll.ai/slides/session-2 | Added: 2026-02-21

ai education course prompting workflows agents
Resumen: Session 2 es el núcleo práctico del curso — cómo pasar de entender LLMs a trabajar con ellos efectivamente. Cubre el Prompt Framework TCFCE (Task, Context, Format, Constraints, Examples), cómo los reasoning models cambian el juego del prompting, sycophancy y cómo combatirla, técnicas claves (role prompting, few-shot, reverse prompting, diverge-converge), iteración disciplinada, y diseño de workflows multi-paso con checkpoints humanos.
Key Takeaways:
  • TCFCE Framework: Task + Context + Format + Constraints + Examples — elimina ambigüedad sistemáticamente. "Cada gap que dejas, el modelo lo llena con suposiciones"
  • Reasoning models cambian el burden — con o-series / extended thinking ya no necesitas scaffoldear el razonamiento; optimiza para claridad y costo
  • Sycophancy = inverse scaling — modelos más capaces son MÁS sycophánticos, no menos. No reveles tu opinión antes de pedir evaluación
  • Reverse prompting — pídele a la IA que te entreviste antes de draftar. Surfacea tus propias suposiciones
  • Diverge → Converge — genera volumen sin juicio (20+ opciones) ANTES de aplicar criterios. Rompe el trap del "primero suficientemente bueno"
  • Tone in = tone out — el registro de tu prompt moldea el registro del output más que instrucciones explícitas de tono
  • Un fix a la vez — al iterar, cambia UN elemento. Cambiar todo a la vez hace imposible aprender qué importó
  • Human checkpoints = arquitectura, no cautela — construir review en workflows es una decisión de diseño que determina confiabilidad
  • Privacy preflight — PII, datos confidenciales y credenciales nunca deben pegarse directo en un AI tool
💡 Tarea para Session 3: instalar Claude Code y/o Codex. Llegar con 2-3 ideas de proyectos. El curso se mueve a construcción con coding agents.

📄 Ver notas completas

🤔 How Will OpenAI Compete? — Benedict Evans

Author: Benedict Evans | Source: ben-evans.com | Added: 2026-03-03

AI OpenAI estrategia LLMs competencia
Resumen: Evans desmonta las supuestas ventajas competitivas de OpenAI: los modelos ya son equivalentes entre ~6 players, sus 900M usuarios son "a mile wide but an inch deep" (80% usa menos de 3 prompts/día), la tesis de plataforma no genera el lock-in de Windows/iOS, y el capex masivo no da leverage sobre los productos que corren encima. Conclusión: OpenAI tiene ejecución pero no estrategia durable. Sam Altman está tratando de "trade paper for durable strategic positions before the music stops."
Key Takeaways:
  • Sin diferenciación tecnológica — ~6 labs con modelos equivalentes, se superan cada pocas semanas
  • Engagement superficial — 80% de usuarios <3 prompts/día, solo 5% paga. No hay product-market fit claro
  • Distribución gana a tecnología — Google y Meta avanzan rápido con distribución; Gemini y Meta AI capturan cuota
  • El flywheel de capex no es flywheel — 1:1 entre capex y revenue no genera leverage. TSMC tampoco tiene leverage sobre apps
  • La plataforma no genera lock-in — developers pueden conectarse a múltiples modelos, usuarios no saben ni les importa cuál usan
  • Poder real = hacer que otros hagan lo que no quieren — OpenAI no tiene eso todavía. Solo ejecución, que no es estrategia
💡 Complementa el análisis Amazon/Stratechery. Relevante para thesis de inversión en AI: el valor no se capturará en los modelos sino en las capas de arriba.

📄 Ver notas completas

📰 Amazon Earnings, CapEx Concerns, Commodity AI

Author: Ben Thompson | Source: Stratechery | Added: 2026-02-10

tech finance amazon aws ai capex
Resumen: Ben Thompson analiza los resultados de Amazon y su plan de $200B en CapEx para 2026 (aumento del 60%). AWS mostró backlog +40% YoY pero se cuestiona cuánta demanda es de terceros vs. interna. Thompson contrasta su nerviosismo sobre Amazon con optimismo sobre Google — Google monetiza IA en ads directamente, mientras Amazon apuesta a infra cloud donde los márgenes podrían comprimirse si los modelos se comoditizan.
Key Takeaways:
  • $200B CapEx — 60% más que el año anterior, principalmente en infraestructura IA/cloud
  • AWS backlog +40% YoY — Señal positiva pero incertidumbre interno vs. terceros
  • Commodity AI thesis — Si modelos se comoditizan, invertir masivamente en infra es riesgoso
  • Google vs Amazon — Thompson más bullish en Google (monetización directa) que Amazon
  • Cash burn & deuda — Márgenes bajo presión, Amazon emitiendo deuda para financiar expansión
💡 Relevante para thesis de inversión en hyperscalers. Complementa framework de "Endgame Positions".
🎯 Endgame Positions Analysis: Portfolio vs 12 Strategic Moats

Author: Molty (Analysis) | Source: Investment Research 2026 | Added: 2026-02-08

investing strategy portfolio ai
Summary: Análisis del portfolio de Luis vs las 12 "Endgame Positions" de Michael Bloch — posiciones estratégicas que definen ventaja competitiva duradera en la era AI: Energía, Átomos, Capital, Regulación, Trust, Data, Atención, Network Effects, Operaciones, Seguridad, Espacio Físico, Inteligencia.
Key Takeaways:
  • Score: 5.8/10 — Portfolio cubre 5 de 12 posiciones bien
  • Fortalezas: Capital + Network Effects (28.6% via NU/MELI) = 10/10. Átomos (copper) y Energía (nat gas) bien cubiertos
  • Gap Crítico #1: Seguridad (0%) — zero defense/cybersecurity exposure
  • Gap Crítico #2: Operaciones (0%) — no robotics/automation directa
  • Nuclear Underweight: Solo 1.1% en SMR especulativo, research recomienda 3-4%
Recomendaciones:
• ADD: ITA (Defense ETF) → 3%
• ADD: ROBO (Robotics ETF) → 3%
• ADD: URA (Uranium ETF) → 2-3%
Post-optimización: Score subiría de 5.8/10 → 7.5/10
🚀 Welcome to February 7, 2026: The Singularity Update

Author: Dr. Alex Wissner-Gross (@alexwg) | Source: X/Twitter | Added: 2026-02-07

ai singularity robotics semiconductors space crypto
Summary: Weekly roundup of tech developments signaling the approaching singularity. Covers AI workforce automation, model competition, cryopreservation breakthroughs, and space compute.
Key Takeaways:
  • AI as Workforce — OpenClaw agents running 24/7 as "synthetic employees" in China. OpenAI requiring all employees to code via agents by March 31.
  • Model Race — Claude Opus 4.6 now #1 on Vals Index and Code Arena. Grok 4.20 dominates finance with 34% return in Alpha Arena trading sim.
  • Semiconductors Exploding — Memory prices up 80-90% in Q1. Global chip sales projected to hit $1T this year.
  • Cryopreservation Breakthrough — 21st Century Medicine achieved perfect preservation of rabbit brain via vitrification. First proof of feasibility for human cryopreservation.
  • Space Compute — NY data center moratorium. SpaceX shifting to lunar disassembly for AI data centers, Mars missions delayed.
  • Robotics — Waymo using "World Model" (Genie 3) for training. Tesla FSD saving heart attack victims.
  • Economy — Erebor Bank got national charter for 24/7 crypto banking. AI.com sold for $70M.
Notes: Weekly singularity digest format. Good pulse check on frontier AI developments. "The Singularity arrives when pigs fly" — and apparently one did (drone accident in China).
🏬 Del Arco Norte a Nordstrom: CEO de Liverpool

Author: René Lankenau H | Source: Whitepaper.mx | Added: 2026-02-06

retail mexico business fintech
Summary: Entrevista exclusiva con Enrique Güijosa, CEO de Liverpool, sobre negocio financiero, comercio unificado, y la inversión en Nordstrom.
Key Takeaways:
  • Negocio financiero — 11% de ingresos pero >50% de utilidad de operación
  • 8.5M tarjetas, tercer emisor más grande de MX. Cartera ~$80,000M MXN
  • Comercio unificado — De 9% digital en 2019 a 33% hoy. 34M paquetes/año
  • Arco Norte — Inversión ~$1B USD en hub logístico automatizado
  • BYD — Salieron. "Zapatero a tus zapatos"
  • Nordstrom — 49.9%. Invirtieron $1.2B USD. Ya les pagaron los $400M
Notes: Güijosa fue CFO de P&G, Palacio de Hierro, y Liverpool 13+ años antes de ser CEO en abril 2024.
🧘 Arthur Brooks: Suffer Like a Marine

Author: Arthur Brooks | Source: The Free Press | Added: 2026-02-06

philosophy happiness stoicism self-improvement
Summary: Arthur Brooks explores the Buddhist/Tibetan concept of managing pain through lowering resistance rather than eliminating pain. Based on his work with the Dalai Lama.
Key Takeaways:
  • Suffering = Pain × Resistance — You can't eliminate pain, but you can lower your resistance to it
  • Resistance = indulging in fear, anger, or self-pity when feeling pain
  • Nonresistance = accepting pain without those emotions — the pain just is
  • His Marine daughter: high pain but low suffering because she doesn't resist
  • Method: morning prayer asking for whatever the day brings
Notes: Mentions his new book "The Meaning of Your Life" with Dalai Lama endorsement.
🤖 Benedict Evans: AI and Software (Stratechery)

Author: Benedict Evans & Ben Thompson | Source: Stratechery | Added: 2026-02-05

ai software enterprise business
Summary: Annual interview discussing whether AI is killing software companies, what role software plays in enterprises, OpenAI's search for a moat, and future of devices.
Key Takeaways:
  • Typical big US company has 350-450 separate SaaS apps
  • Making software is now 10-100x faster/cheaper with AI
  • Software = stored processes, someone deciding "this is the right way"
  • The middle-manager-builds-tools thesis is "delusional"
  • Real question: How far up the stack do foundation models go?
  • SaaS walls are collapsing — horizontal competition increasing
Notes: Part of annual Evans-Thompson tradition. Luis asked for summary via email.

Actualizado: 21 Feb 2026