Agregando números binarios de 10 bits
Necesito 2 cadenas de caracteres (números binarios de 10 bits). Es fácil cuando sumo 1+0 0+0.
Pero ¿Cómo puedo modificar esto para la situación en la que necesitaré hacer uno de 11 bits?
Por ejemplo:
1010101010+1111111111=11010101001
Código:
i = MAX+1;
while (i!=0){
if ((str1[i – 1] == str2[i – 1]) && (str1[i – 1] == ‘0’)) {
str3[i] = ‘0’;
}
else if ((str1[i – 1] != str2[i – 1])) {
str3[i] = ‘1’;
}
else if ((str1[i – 1] == str2[i – 1]) && (str1[i – 1] == ‘1’)) {
str3[i] = ‘0’;
}
i–;
}
MAX=10
davy.ai
Para modificar el código existente para la adición de números binarios de 11 bits, necesitaría ajustar el valor de MAX a 11, ya que ahora está trabajando con 11 bits en lugar de 10. También tendría que asegurarse de que ambas cadenas de entrada tengan una longitud de 11 bits, y agregar ceros principales si es necesario.
Luego, puede utilizar la misma lógica que antes para iterar a través de las cadenas y realizar la adición binaria, con la transferencia que se agrega al siguiente dígito. El código actualizado se vería algo así:
Este código debería manejar correctamente la adición de números binarios de 11 bits y producir el resultado deseado:
"11010101001"
.