El procesador Intel de doble núcleo olvidado de la década de 1970

¿Recuerda cuándo obtuvo su primera computadora o dispositivo que contiene una CPU con más de un núcleo de procesamiento principal en el lanzador? Suponemos que para muchos de ustedes probablemente fue alrededor de 2005, y probablemente ese procesador estaría en la familia de chips Intel Core Duo. Con un ESP32 de doble núcleo que ahora cuesta unos centavos, puede ser difícil conseguirlo en 2020, pero hubo un momento en que un procesador de múltiples núcleos era realmente muy importante.

¿Qué pasaría si les dijéramos que hubo otro procesador Intel de doble núcleo en la década de 1970, y que algunos de ustedes incluso podrían haber tenido uno sin siquiera darse cuenta? Es una historia sobre nosotros de [Chris Evans], sobre cómo un equipo de entusiastas de la ingeniería inversa se unió para descubrir los secretos del Intel 8271.

Si nunca ha oído hablar del 8271, se le puede perdonar, porque lejos de ser parte de la línea de procesadores del chip gigante, era un controlador de disquete de alta calidad que apareció en relativamente pocas máquinas. El uso inesperado de él vino en el Acorn BBC Micro, que está allí [Chris] lo conocí por primera vez. Hay muy poca documentación de sus características internas, por lo que el equipo necesitaba una combinación impresionante de descomposición e investigación antes de poder comprender sus secretos.

Como habrás adivinado, lo que encontraron no es un procesador de aplicaciones de propósito general, sino un microcontrolador de doble núcleo programado con máscara, optimizado para el recorrido de datos y que contiene grandes matrices lógicas programables (PLA). Es un chip relativamente grande para su época, y con 22.000 transistores supera al 6502 relativamente delgado, lo que hace que el BBC Micro sea un trabajo pesado. Una decodificación muy difícil de RMO y PLA llega a la conclusión de que el kernel principal tiene cierto parecido con su arquitectura 8048, y el diseño de dos núcleos se revela como una solución al problema de calcular las comprobaciones de redundancia cíclica sobre la marcha en el disco. velocidad de transferencia. Incluso hay otro chip que usa el mismo silicio en el rango actual de Intel, el controlador de fecha síncrono 8273 simplemente tiene otra ROM. En general, el artículo ofrece una visión fascinante de este rincón muy inusual de la tecnología de microordenadores de la década de 1970.

Como sabrán los lectores experimentados, estamos interesados ​​en la ingeniería de chips inversa.

  • Artenz dice:

    > pero hubo un momento en que un procesador de múltiples núcleos era realmente un gran problema.

    Porque el multinúcleo no tenía sentido cuando las velocidades de reloj seguían creciendo rápidamente. ¿Por qué agregar complejidad a un segundo núcleo cuando, en cambio, puede duplicar la velocidad de un solo núcleo?

    • Alexander Wikström dice:

      En realidad, esta fue una gran razón por la que muchos sistemas de consumo no se atrevieron a implementar implementaciones de múltiples núcleos con respecto al entorno del usuario y la unidad central de procesamiento.

      Sin embargo, los procesadores dedicados han sido lo suficientemente comunes para las evaluaciones de IO durante bastante tiempo, y los gráficos también han tenido procesadores dedicados durante mucho tiempo. Por lo tanto, se podría argumentar en parte que las computadoras han sido de múltiples núcleos durante mucho tiempo, incluso antes de la revolución de las microcomputadoras en la década de 1980.

      Pero generalmente, "mulit-core" generalmente solo se usa en relación con la (s) CPU (s). Si un controlador de disco o un procesador de gráficos, o incluso un procesador deslizante, es técnicamente otro núcleo que eleva notablemente el rendimiento general del sistema.

      Sin embargo, es interesante ver un chip multinúcleo real de los años 70.

      Pero para ser justos, en realidad no es tan difícil crear un parche de varios núcleos, aunque depende de la arquitectura.

      • Jim Shortz dice:

        Y los sistemas de consumo en ese momento (antes de la década de 2000) no admitían múltiples procesadores. También es algo muy importante para ellos.

        • Doug dice:

          De hecho, y AQUÍ no vimos sistemas multiprocesador hasta bien entrada la década de 2000. Solo Linux, OS / 2 y posiblemente BeOS funcionaron bien en muchos procesadores en la década de 1990 y principios de la de 2000. Microsoft todavía tenía un sistema operativo principal cooperativo hasta que apareció Windows XP a finales de 2001 y también era muy pobre en multitarea. Microsoft no permitió a los proveedores comparar su sistema operativo en sistemas multiprocesador, por lo que hubo muy pocos ejemplos que mostraran lo malo que era y lo bueno que era el otro SO.

          Hubo un proveedor base que creó una bonita placa de procesador dual que podía ejecutar dos procesadores Celeron baratos y se vendía como pan caliente a los usuarios de Linux y a algunos usuarios restantes de OS / 2. Abit BP6 fue el modelo.

          Entonces, debido a que la empresa que domina el panorama de los sistemas operativos, Microsoft, no podía producir un sistema operativo que manejara bien el multiproceso y la mayoría de su software era de un solo subproceso, no era una ventaja para los usuarios de esos sistemas ejecutar un multiprocesador. -Sistemas de núcleo.

          Una prueba más de que Microsoft ha retenido la industria durante unos 10 años debido al software infravalorado y al marketing dominante.

          • David Siebert dice:

            Windows 95 anterior tenía multitarea preventiva, así como Amiga OS, Simultáneo e incluso Windows 386 porque podía ejecutar programas DOS. NT y posteriores recibieron una protección de memoria mucho mejor, pero sí, incluso 95 tenían multitarea preventiva.

          • Doug dice:

            Windows 95 puede haber tenido una multitarea preventiva, pero fue una implementación desagradable. Intentaron crear una versión bien ensamblada de Explorer en la beta de Chicago, ya que la interfaz de usuario y el sistema de archivos OS / 2 estaban muy bien escritos y discutidos, pero acabó con el rendimiento de todo el sistema Windows. La versión beta posterior ha eliminado en gran medida el Explorador de Windows y el resto es historia, ya que la mayoría de los servicios del sistema operativo de Microsoft son dolorosamente de un solo subproceso.

          • Steven Gars dice:

            "Microsoft todavía tenía un sistema cooperativo primario hasta que apareció Windows XP a finales de 2001 ..."

            De hecho, Windows 2000, Windows NT 4.0, Windows NT 3.51, Windows NT 3.5 y Windows NT 3.1 eran todos multitarea preventivos y todos podían utilizar varios procesadores. Windows NT 3.1 fue lanzado en 1993 para x86 y dentro de un año, hubo versiones para MIPS y DEC Alpha, todas con plataformas multiprocesador disponibles, según recuerdo.

            "... Microsoft no ha permitido a los proveedores comparar su sistema operativo con sistemas multiprocesador ..."

            Bueno, dado que Microsoft no pudo evitar por completo que ninguna empresa (proveedor, cliente o competidor) hiciera lo que quisiera con Windows, no estoy seguro de que esta afirmación sea válida. Quizás esté pensando en el deseo de Microsoft de no publicar algunas referencias * sin su aprobación.

            "... así que hubo muy pocos ejemplos que mostraran lo mal que estaba ..."

            No sé de dónde viene eso, pero como alguien que ha hecho un gran uso de las características de subprocesos múltiples de la familia Windows NT, puedo decir que hemos extraído * mucho * de procesamiento de un segundo procesador. Windows NT era rápido y sólido y fue el sistema operativo elegido para las estaciones de trabajo científicas / de ingeniería y los servidores de la época. (Sí, Novel fue el software de servidor más popular a finales de los 80 y principios de los 90, pero la línea de Windows NT lo superó rápidamente en términos de funcionalidad y popularidad).

            "... sobre todo [Windows] el software era de un solo subproceso ... "

            Eso es bastante cierto: cualquier software de 16 bits escrito para Windows 3.x sería de un solo subproceso. Pero tan pronto como apareció Windows 95 (en 1995), los programas multiproceso reales de 32 bits estaban en todas partes (porque los desarrolladores ya tenían desarrollos previos en Windows NT).

          • Doug dice:

            Conozco todas las versiones de Windows NT y sus requisitos de rendimiento y hardware. La plataforma de hardware de consumo no alcanzó las capacidades para ejecutar Windows NT lo suficientemente bien hasta que se envió XP. Yo era un probador beta de esa plataforma y ejecuté versiones hasta NT 4.0 y funcionó, pero se necesitó mucho más hardware que otros sistemas operativos o incluso Windows 9x para que el trabajo fuera bastante bueno. Fue triste verlos mover el sistema de gráficos al núcleo en 4.0 porque antes era bastante estable para la plataforma Windows.

            Pero nuevamente el rendimiento fue pobre en comparación con OS / 2 o incluso UNIX en el mismo hardware. NT junto con otros sistemas operativos de 32 bits funcionaron bastante bien en el hardware Pentium Pro, pero Microsoft aún vendía la plataforma Windows 9x, en su mayoría pirateada de 16 bits, y realmente estropeó Intel. Su asociación fue legendaria, pero se rompió a partir de ese momento, ya que Intel tuvo que hackear más CPU tolerantes a 16 bits para alimentar el sistema operativo principal de Microsoft, Windows 9x. Y los marcos de programación orientados a objetos facilitaron el desarrollo para diferentes plataformas a principios y finales de los 90. El software de Java mostró un poco las grietas en la estrategia del sistema operativo de Microsoft y necesitaba más acciones ilegales para proteger su ecosistema.

            Administraba muchos sistemas operativos en esos días y desarrollaba en Windows, UNIX y OS / 2. La cantidad de veces que las memorias y los errores rastreados en las API de Microsoft eran preocupantes. Pero las reglas de marketing cuando la ignorancia de la gestión no es diferente y hay mentiras falsas y luego dictan políticas de desarrollo. Cuando apareció NT 4.0, renuncié a esa plataforma porque otras eran mucho mejores y mucho más avanzadas pero en su mayoría mucho más estables. Pero lo que realmente me atrapó en relación con Microsoft fueron sus ataques a los avances en el desarrollo de software. CORBA, OOP frameworks, Java, etc. fueron todos atacados ferozmente por Microsoft mientras trabajaba para mantener el control de los desarrolladores y, por lo tanto, de la plataforma. Cuando se envió Windows XP, abandonaron la programación de marketing, ralentizaron C ++ / OOP y el hardware fue lo suficientemente rápido como para vender Windows de 32 bits a consumidores y empresas por igual. "¿Alguien recuerda Windows?" fue una cita famosa de aquellos días.

        • bwmetz dice:

          Solo si por consumidor se dirige al usuario doméstico. El consumidor empresarial tenía varias opciones a mediados de los 90 para usar múltiples procesadores con Windows NT Workstation, que iirc fue el predecesor. [in spirit] a las versiones "Pro" de Windows XP y posteriores dado el ADN del servidor NT afectado Win2k / XP.

        • Mate dice:

          También se requerían interfaces de hardware y firmware subyacentes. Tomó suficiente tiempo para que todas las piezas estuvieran en su lugar.

      • Mate dice:

        Un punto clave es cómo esos otros núcleos estaban limitados en el software que podían realizar. Realmente no podría distribuir un programa a esos otros procesadores, solo una interfaz con su firmware.

    • Ulo dice:

      La pequeña cantidad de ancho de banda bajo para la RAM típica del lugar de trabajo en ese momento estaba matando de hambre incluso a los procesadores de datos de un solo núcleo, y los sistemas operativos todavía se trataban como multitarea. Pulsa un intercambio solo para cargar Windows98.

      Tener un procesador multinúcleo, o una máquina multiprocesador, era una especie de curiosidad sin sentido. Quiero decir, teníamos esas placas Pentium con ranuras para dos CPU, pero fuera de los programas especiales hechos específicamente para dos CPU, no hizo ninguna diferencia. Su software todavía se estaba ejecutando en una CPU u otra y era tan lento como cualquier otra cosa.

      El rendimiento de un solo hilo fue el factor limitante para cosas básicas como la velocidad de su procesador de texto, que es fácil de olvidar ahora que tenemos máquinas de múltiples GHz que pueden ejecutar múltiples instrucciones por ciclo con predicción de rama.

      • Ulo dice:

        PD. La gente a menudo olvida lo lentas que eran las computadoras antiguas. La gente siente nostalgia de cómo el software antiguo no estaba tan hinchado, pero de hecho, el día en que tuvo que esperar a que los iconos del escritorio aparecieran uno tras otro durante la explosión del disco duro, literalmente podría hacer café mientras esperaba que Word comenzara a funcionar.

        • Alexander Wikström dice:

          Sí, en aquellos días no había mucho espacio para la hinchazón, y menos para eso.

          Por ahora unos días es trivial hacer que un programa simple se convierta en un gigante sin realmente darse cuenta.
          Ya sea que consuma toneladas más potencia de procesamiento de la necesaria o use cantidades excesivas de RAM, simplemente se detenga sin cesar debido a API ineficientes y similares ...

          • Ulo dice:

            Otra cosa era que la mayoría de los consumidores no podían permitirse comprar una segunda CPU. Si tiene un programa de subprocesos múltiples ejecutándose en una CPU, se ejecutó más lento con más luz por el cambio de hilo, por lo que los desarrolladores vieron que tenía sentido incluso intentarlo.

        • Doug dice:

          Especialmente cuando Microsoft dominaba la industria con sistemas operativos de 16 bits. ¿Recuerda cuando Intel presentó una CPU optimizada para 32 bits y Windows corría más lento con la misma velocidad de reloj de 150 MHz? Pentium Pro era el nombre de la CPU y aunque los sistemas mucho mejores funcionaban mucho más rápido (Linux, UNIX, OS / 2), fue un fracaso porque el marketing de Microsoft vendía Windows como 32 bits, pero funcionaba principalmente como un sistema operativo de 16 bits.

          Intel tuvo que dar un paso atrás y volver a un diseño de procesador optimizado de 16 bits y para vender este hardware "más pequeño" como "nuevo" agregaron un poco de capacidades DSP (SSE). Pentium II recibió su nombre y duró casi 10 años antes de que la arquitectura de la CPU Intel estuviera dominada por instrucciones de 32 bits.

          Entonces, la mayoría de la gente no sabe que sus computadoras se han ralentizado porque Microsoft ha frenado la industria. Tiene poco que ver con la compatibilidad con versiones anteriores y más con el marketing. Hemos visto a Microsoft forzar a los desarrolladores a recorrer callejón tras callejón buscando aplastar a un competidor. Eligieron mantener el bloatware porque mejora a las personas, porque han progresado lenta, muy lentamente a través de la competencia porque han controlado los canales de distribución.

          Ejecuté un OS / 2 multiprocesador con hardware de procesador dual ABIT BP6 a fines de la década de 1990.

          • bwmetz dice:

            Experiencia similar con Pentium Pro dual pero con NT 4.0 Workstation. No recuerdo una mala actuación, pero eso fue hace mucho tiempo. Usé Linux en otros lugares, pero ni él ni el vino eran adecuados para la informática comercial de propósito general dentro de un escaparate pesado en ese momento. Tengo miedo de los recuerdos de la instalación de Redhat 5.x con un disquete y las dependencias faltantes que tuvo que seleccionar manualmente y, por lo tanto, reiniciar cuando la instalación falló después de innumerables intercambios de disco.

          • Doug dice:

            Estaba trabajando en una tienda Solaris que escribía código utilizado para obtener datos sobre el lanzamiento de Atlas V y noté que el rendimiento de las estaciones de trabajo Solaris es terriblemente más lento que el de mi máquina doméstica BP6. Así que construí una caja y la comencé, obtuve permiso para ponerla en la red con Linux y nuestro equipo de 10 personas la desarrolló y construyó antes de la construcción final y las pruebas en Solaris.

            También ejecuté OS / 2 en casa con un servidor Lan central y, mientras Windows NT se estaba ejecutando, ni siquiera estaba cerca del rendimiento de OS / 2 o Linux en esos BP6.

            También desarrollé en OS / 2 y se me encomendó la tarea de averiguar por qué el software desarrollado no mostraba las mejoras de rendimiento esperadas del hardware Pentium Pro. Se debió a que las estructuras de datos no estaban alineadas con los límites de 32 bits. Toneladas de 16 bits de palabras mezcladas con bytes que engañan la alineación. Antes del Pentium II con este MMX estaba el Pentium Pro optimizado para 32 bits y era muy rápido al mismo tiempo que el SO y el software dejaba atrás el mundo de los 16 bits. No fue una gran tarea limpiar las estructuras de datos, pero requirió un gran esfuerzo de prueba, ya que a algunos desarrolladores les gustaba hacer cosas divertidas con punteros.

          • Gregg Eshelman dice:

            Pensé que Microsoft debería hacer un gran esfuerzo para renderizar Windows de 32 bits cuando se lanzó el 80386, dejar DOS por completo. En cambio, optaron por una transición (demasiado) lenta. Hasta ahora han incorporado parte de su trabajo de Windows 95 en Windows 3.1x con Win32s. La mayoría de los programas de principios de los 90 que se ejecutan en 3.1xy 95 usan Win32s y generalmente lo incluyen como parte de su instalación.

            Pero eso lo molesta un poco debido a 95, porque no puede usar algunas cosas de 32 bits que no están incluidas en el subconjunto de 32 bits de Windows, a menos que esté escrito para tener algunas funciones solo disponibles en 95

        • bwmetz dice:

          Las velocidades de conducción eran terribles. Los primeros CD-ROM eran peores. Y no me hagas empezar con Laplink (especialmente en serie), discos de mochila o copias de seguridad en cinta a través de un puerto paralelo. Pero no estoy de acuerdo en que el hinchado debate sea simplemente nostalgia. Algunos cambios de software, en el aspecto de útil, ciertamente han ralentizado el uso de un usuario, es decir, el mejor ejemplo en el que puedo pensar rápidamente fue la lista de fuentes de MS Office, cuando mostró por primera vez un ejemplo de cada fuente frente a la simple, más una lista rápida de cada nombre de fuente que lo precedió. No es un problema con los sistemas más rápidos cuando se introducen, sino algo innecesario para el usuario promedio que realmente ha ralentizado los cambios de fuente en los sistemas más antiguos. Es una característica interesante, pero ¿con qué frecuencia el usuario general usa más de dos o tres fuentes y, por lo tanto, necesita ver decenas de nombres de fuentes presentados en su formato específico?

          • Doug dice:

            Debería haber probado algunos de los procesadores de texto pertenecientes a OS / 2. El subproceso del kernel de OS / 2 fue increíble y los programas escritos para aprovechar ese subproceso fueron un placer de usar. También algunos programas gráficos nativos. Incluso UNIX en los viejos 368, 486 y Pentiums fue una experiencia de usuario mucho mejor debido al proyecto central de múltiples subprocesos que cualquier cosa hecha por Microsoft. Una tarea colaborativa fue una elección terriblemente mala incluso en la década de 1980 y esa elección y ese poder de mercado detuvieron al sector técnico durante 10 años.

          • bwmetz dice:

            OS / 2 siempre ha estado en mi lista de cosas, pero nunca lo he rodeado. Casi lo mencioné arriba, pero habría rumores de amigos que lo usaron.

          • Ulo dice:

            > pero, ¿con qué frecuencia el usuario general usa más de dos o tres fuentes y, por lo tanto, necesita ver decenas de nombres de fuentes presentados en su formato específico?

            A menudo, cuando las personas necesitan cambiar la fuente, quieren buscar una fuente que se parezca a la pieza y no recuerdan exactamente cómo se ve "Foobar Sans Serif". Otras veces, cuando la fuente no importa, simplemente se quedan con la fuente predeterminada y no tocan la fuente en absoluto.

            Cuando considera para qué sirve el selector de fuentes, se ve como el selector de color en un programa de pintura. Cambia la apariencia visual de la fuente. No ver el aspecto de la fuente es como elegir colores según una descripción de texto como "verde oliva", que podría ser cualquier cosa. Luego tiene que probarlo y volver a la lista si no le gusta, lo cual es un inconveniente.

            Tal vez te hayas acostumbrado a los procesadores de texto más antiguos que no eran WYSIWYG y a las impresoras que insertaban sus propias fuentes, así que lo que tenías en la pantalla no importaba. Lo que realmente mató al rendimiento fue la "función" en Windows, cuando tener varias fuentes provocaría que el sistema y todas las aplicaciones fallaran en general, y el sistema de caché de fuentes creado para ayudar con ese problema a veces se corrompía y provocaba que el sistema se iniciara en un pantalla en negro.

        • Conde Colby Pottinger dice:

          Lo siento, no tan lento. Tengo un programa muy especial que tomó un fin de semana completo en mi Amiga 7.16 MHz. El mismo programa se ejecuta en menos de una hora en mi máquina I7 de 2,1 GHz. De hecho, es 55 veces más rápido que mi antiguo Amiga. Pero solo mirando la velocidad del reloj, debería ser 300 veces más rápida hoy. Y sabemos que el viejo 68000 desperdició muchos ciclos de reloj para hacer incluso instrucciones simples.

          Hoy estoy luchando con cómo conectar mis proyectos habituales a mi computadora a través de USB, y la mayoría de los puertos disponibles me dan un empujón terrible. En mi antiguo Amiga pude leer 2 MB por segundo con hardware conectado directamente al bus del sistema, hoy tengo que pasar por tantas interfaces basura que tengo la suerte de obtener 200K por segundo y la mayoría de las veces 1-2 KB es el velocidad más normal.

          Para mí, las computadoras han ido al revés.

          • Shannon dice:

            Me parece que simplemente no eres muy bueno programando para las máquinas modernas.

          • Joe Zbiciak dice:

            Parece que las interacciones de su software y su dispositivo están dominadas por los tiempos de vuelta. El x86 moderno debería ser más cercano a 10,000 - 50,000 veces más rápido (un solo núcleo), dependiendo de si puede aprovechar SIMD. Esto no es una exageración.

            Veo Dhrystone MIPS. Según Wikipedia, 8MHz 68000 extrae 1.4 DMIPS, por lo que 7.16MHz 68000 tiene aproximadamente 1.25 DMIPS. Reclama un IPC por núcleo de 0,175.

            Los números de Core i7 que veo en Wikipedia varían en Dhrystone IPC de 7 a 10 bajo. Si asumimos IPC = 8 (porque 2.1 GHz suena como un i7 más antiguo), entonces debería estar alrededor de 16800 DMIPS. Eso es aproximadamente 13440 × tan rápido.

            Una gran carga de trabajo matemática (especialmente una diapositiva) obtendría ganancias mucho mayores, incluso si tuviera 68881 en el día.

            Su código obviamente no es Dhrystone. O golpea la latencia de la memoria o la latencia del disco o algo similar.

            Para su interfaz de hardware: si toca un poco desde la computadora, por ejemplo, un FTDI, siento su dolor. El RTT te mata. Puede intentar configurar el temporizador de latencia, pero solo es muy bajo. Tal vez esté más preparado para construir una pequeña interfaz de microcontrolador para bit-bang localmente y comunicar los resultados a alta velocidad, con algo como FT240X o FT2232H.

          • rasz_pl dice:

            Algo está mal con su i7 y USB 🙂
            Ejecutar winuae con un Core 2 Duo de 14 años te da un A500 corriendo a una velocidad x1000. Ejecutar su tarea mágica de "1 día" debería tomar ~ 1 minuto en un emulador en una computadora de 14 años, y mucho menos en un i7.

      • limroh dice:

        > teníamos esas placas Pentium con ranuras para dos CPU

        Ah, en ese momento era necesario arreglar su BIOS para que reconociera discos con más de 32GiB (si mal no recuerdo, había otra barrera en 128GiB pero no relacionada con mis discos de 80GB).

        Estas placas Pentium 3 de dos ranuras servían con Windows 2000 como servidores (de juegos) (para celebraciones de LAN). No tanto o nada con Windows 98 (if) / ME

    • John herencia dice:

      O-receptividad. Tenía una serie de computadoras de doble pulgada que comenzaban con Pentium MMX dual y Windows NT siempre respondía sin importar lo que sucediera.

      Además, debido a que el consumo de energía no era de más de 100 W por chip, podría colocar dos chips de alta calidad y no necesitar un enfriamiento especial.

      La desventaja fue que incluso a finales de los 90 se necesitaría un solo sistema de CPU para jugar o ejecutar programas más antiguos, por lo que en general todavía se necesitaban "buenos procesadores" en lugar de dos CPU más débiles para hacer esto realmente útil. Un doble comienzo de curso, por supuesto, para trabajar y jugar no fue tan terrible, pero aún así fue una pérdida de tiempo.

      Dicho esto, puedo ver por qué gastaron su presupuesto de transistores para relojes más altos e IPC a lo largo del tiempo, pero si Intel optara por un Pentium 3 de doble núcleo cuando el P4 se lanzó para estación de trabajo y servidor, en lugar del Pentium 4 basado en Foster. Xeones. Asegúrese de que el P3 personalizado tenga acceso a más ancho de banda que el P4 y sería impresionante en la misma dimensión que un solo núcleo. p4.

      • Chris dice:

        La arquitectura central es esencialmente un desarrollo del Pentium 3. Mientras que p4 estaba en el escritorio, Pentium m era la CPU portátil basada en el P3. La arquitectura central vino de Pentium m. Pipelines más pequeños que p4, más caché y más unidades de ejecución. IPC más alto con reloj más lento.

      • Ulo dice:

        Intel era conocido por impulsar la guerra de los MHz y se olvidó de agregar cualquier ancho de banda de bus frontal, que es parte de la razón por la que el P4 bombardeó con tanta fuerza. Era un procesador muy potente que intentaba beber el océano con paja.

    • Cierto dice:

      Te ves similar a Amiga:
      Motorola 68000 para la CPU principal que generalmente se ejecuta a 7MHz
      un procesador de gráficos llamado chip Blitter: movía datos a la RAM y los modificaba.
      un coprocesador de sonido que podría transmitir sonido a / desde un disco.

      Y técnicamente podría argumentar que es una placa de múltiples núcleos, un procesador podría estar presionando un poco.

      • Ulo dice:

        Técnicamente, era un conjunto de chips con aceleradores de dispositivos para algunas funciones. El punto de partida para el sistema era una consola de juegos / máquina recreativa, donde en lugar de la CPU de Motorola tenía un cartucho que contenía la lógica del juego en ASIC para controlar el chipset. La idea era sacar la CPU de la máquina para reducir aún más la fabricación del dispositivo en sí, y luego parte del costo se trasladaría a los cartuchos del juego, que podrían tener CPU más rápidas o más lentas según el juego.

        Cuando cayó el mercado de los videojuegos, reemplazaron la CPU y la volvieron a conectar como una computadora personal. Como resultado, obtuviste la extraña arquitectura de Amiga con limitaciones como RAM rápida y lenta donde estaría el cartucho del juego.

        • Cierto dice:

          Nunca supe eso, pero tiene mucho sentido.

          Pero si mira una CPU incorporada moderna como la NXP LPC4370, que tiene ARM M4 y dos procesadores enchufables ARM M0, una de las tareas de M0 es manejar la transferencia de datos desde 80MSPS ADC o USB 2.0 HS, para liberar el CPU principal para tareas más urgentes.

          El Amiga con aceleradores de hardware para algunas funciones, es sorprendentemente similar en muchos aspectos, ya que algunas CPUs de varios núcleos funcionan, asignan núcleos para funciones especiales, pero ahora también pueden funcionar como un procesador independiente ejecutando código, pero hay muchas similitudes.

      • rasz_pl dice:

        No hay microprocesadores en Amiga que transmitan sonido directamente desde un disco a la salida de sonido. La lectura de disco necesita una CPU. Paula es solo un separador de datos Pll tonto, y el resto lo maneja la CPU (trackdisk.device) y Blitter para acelerar la decodificación de bits. Esto fue muy "inteligente" en 1985 (a1000), cuestionable antes de 1987 (a500) y un simple tonto en 1992 (a1200) cuando Commodore ya había despedido a cualquiera que tuviera una primera pista sobre bucles bloqueados en fase y no pudo actualizar a Paula para hacerlo. trabajar. con disquetes HD.

  • BeebFan dice:

    Sería interesante ver cuál es la diferencia con el 1770 (el controlador que se usó en el BBC Master (y B + iirc). Sé que el 1770 podría hacer algunas cosas que el 8271 no pudo y viceversa).
    Creo recordar que Watford Electronics creó una placa de expansión para BBC Micros que tenía 1770.
    Ah, recuerdos. ¡BBC Micros eran máquinas tan inteligentes! Las expansiones para adultos (tubo, bus de 1Mhz, puerto de usuario, puerto de impresora, Econet) acaban de madurar para la experimentación. También fue bastante fácil crear sus propias ROM para él, aunque eso fue en la época de las EPROM que eran fáciles de usar.

    • mikeelectricstuff dice:

      Recuerdo que el 8271 estaba obsoleto cuando Acorn lo proyectó a la BBC (o más bien lo mantuvo del anterior System 3 porque ya tenían el programa), por lo que era caro y podría ser difícil de atrapar. si solo quisiera el chip y no un paquete con un disco. El único costo fue que terceros crearan complementos 1770/1772 y escribieran su propio sistema de archivos para ello.

  • Darko dice:

    Para mí fue Athlon 64 X2 4200+ en 2005, un gran procesador para la época.
    Core2duo llegó un año después ... Si mal no recuerdo, también había un Pentium 4 de doble núcleo, pero estos eran simplemente malos.

    • DainBramage dice:

      Similar aquí. En 2005 tenía un Athlon 64 X2 3800+ (un poco empacado), y en ese momento encendió absolutamente el P4 de 3 GHz de mi hijo.
      Mía, cómo han cambiado los tiempos. Luego había muy poco software que pudiera aprovechar el segundo kernel, y eso incluye Windows. Sospecho que hasta que las CPU con muchos núcleos aparecieron en el mercado de las computadoras, Microsoft no animó mucho a que Windows las usara correctamente.

  • RoGeorge dice:

    Hizo un controlador de disquete una vez (8272 está en el chip DIL de 2 × 20 grande en la esquina inferior izquierda a bordo, el resto es un sistema Z80 completo compatible y con CP / M y ZX Spectrum). El controlador de disquete era 8272, el hermano mayor del controlador de disquete 8271.
    https://la-tecnologia.io/project/1411/gallery#83d0e26d5dcf011373b9db3375d4cf11
    : o)

    Interesante decapado, ¡gracias por la información! Nunca miré debajo del capó, pero estoy totalmente interesado: ¿por qué usar un núcleo dual allí, o una CPU en absoluto, cuando una máquina de estado de hardware sería más que suficiente para el trabajo?
    ¯ _ (ツ) _ / ¯

    • rasz_pl dice:

      Según el artículo vinculado en la publicación, 8272 no era hermano del 8271, pero Intel obtuvo la licencia de NEC D765 y lo fabricó con un nodo de proceso inferior.

  • alemán dice:

    Acabo de descartar una vieja estación de trabajo con gráficos duales Pentium de la década de 1980. Lo suficientemente alto para esa ventana de tiempo.
    Gané $ 2.00 USD en el centro de reciclaje. La habitación trasera ahora está despejada.

    • Mungojerry dice:

      Pentium de los 80? ¿Ha sido abandonado por un viajero en el tiempo?

      • Alexander Wikström dice:

        ¿Estar a una década de distancia no es tan malo ahora?

        Al menos no me quejaría si encontrara una computadora de los años 30 en mi puerta.
        Sin embargo, no me quejo cuando la gente deja computadoras de 10 años en mi puerta por eso ...

        • alemán dice:

      • alemán dice:

        Finales de la década de 1980 .. Duh.

        • Alexander Wikström dice:

          Intel lanzó Pentium en 1993, por lo que incluso a finales de los 80 es demasiado pronto ...

          • Ruido_en_la jungla dice:

            No se apresure a llegar a la conclusión, tal vez sea JERRY de Esfera.

          • alemán dice:

            Completamente funcional. Teclado y ratón originales. 1994yr.
            Scsi integrado, sb16, amd pcnet, matrox millenium 2MB.
            Disquete con adaptador pcmcia de 32 bits.

          • msat dice:

            ¡Quién! ¿Cómo no sabía que el Pentium de primera generación se lanzó a principios de 1993? Si alguien me dijera que adivine, diría '95 o '96.

          • Ulo dice:

            Ese fue el caso, pero rápidamente encontraron un error matemático en la CPU y tuvieron que recuperarlo a fines de 1994. El error le costó a Intel casi mil millones de dólares en dinero de hoy, pero puso al Pentium en el título alrededor de 1995.

          • Robert Marmorstein dice:

            ¿Por qué lo llamaron Pentium en lugar de 586? Porque 585.9999999999 no sonó muy bien.

            ¿Cuántos ingenieros de Intel se necesitan para cambiar una bombilla? .99999999999

        • BungoJerry dice:

          Jeje, que momento para estar vivo

    • rasz_pl dice:

      un gran juego mental o un troll débil
      1 sin pentium en la década de 1980
      2 clones desagradables del sistema pentium clásico venden> $ 100
      2 talleres de Pentium duales de clase vintage generan fácilmente> $ 300

  • Michael Black dice:

    Por supuesto, existían esquemas para CPU de 8 bits populares para procesamiento dual. Definitivamente el Z80 y el 6809, pero creo que el 6502. Pero eran principalmente esquemas, no muchos programas publicados.

    No es lo mismo que los de dos núcleos, pero han estado superando a las máquinas Pentium dobles durante décadas.

    Y había impresoras de hardware y disquetes externos “inteligentes” y Gimix tenía placas en serie y paralelas que incluían CPU. La radio de paquetes amateur generalmente se hacía agregando un bix con una CPU.

    Y el precario controlador de OSI usaba USART, la gente en ese momento se preguntaba por qué no usaba un disquete IC

  • Tim Robinson dice:

    Creo que Fairlight CMI usó 2 6800 en el mismo bus.

Ricardo Prieto
Ricardo Prieto

Deja una respuesta

Tu dirección de correo electrónico no será publicada.